Lee Sedol vs AlphaGo: 1:3

https://xpil.eu/rmf

Lee Sedol po raz pierwszy wygra艂 przeciwko AlphaGo!

Co prawda w czwartej partii z pi臋ciu, a wi臋c ju偶 po przegraniu ca艂ego meczu, ale jednak.

Komentatorzy twierdz膮, 偶e du偶y wp艂yw na wygran膮 m贸g艂 mie膰 fakt, 偶e - przegrawszy mecz - Lee pozby艂 si臋 z bark贸w ci臋偶aru odpowiedzialno艣ci i m贸g艂 gra膰 nieco swobodniej.

I zagra艂 - jak na mistrza przysta艂o - bardzo, bardzo dobrze.

Poniewa偶 nie znam si臋 zbytnio na Go, musz臋 polega膰 na tym, co wyczyta艂em online. A tam pisz膮, 偶e po w miar臋 zr贸wnowa偶onej grze przez pierwszych 77 ruch贸w, Lee w 78 ruchu zagra艂 tesuji. Poj臋cie tesuji w Go nie oznacza jakiego艣 konkretnego rodzaju ruchu, czy strategii - jest to po prostu bardzo mocny ruch w danej sytuacji, wymagaj膮cy sporego wysi艂ku umys艂owego (trzeba przewidzie膰 sporo pozycji "do przodu"). Wykonanie tesuji wymaga mistrzowskiego poziomu oraz lat praktyki.

呕aden z komentator贸w ogl膮daj膮cych gr臋 na 偶ywo nie zorientowa艂 si臋, 偶e 78 to by艂o tesuji, a偶 do kilku ruch贸w p贸藕niej.

Jednak poniewa偶 plansza w okolicach ruchu 77 by艂a w miar臋 zr贸wnowa偶ona, a AlphaGo opr贸cz wiedzy o milionach rozegranych gier ma do swojej dyspozycji r贸wnie偶 ogromne moce obliczeniowe, powinien by艂 owo tesuji zauwa偶y膰.

Niestety (a raczej: stety), nie zauwa偶y艂. Wczesne teorie m贸wi膮, 偶e symulacje Monte Carlo, u偶ywane skutecznie do wybrania kolejnego ruchu, w tym konkretnym przypadku by艂y ciut "za kr贸tkie". Ruch 78 si臋ga艂 daleko w przysz艂o艣膰, a tak偶e wymaga艂 przeanalizowania jednej, bardzo konkretnej ga艂臋zi drzewa decyzyjnego - w takich przypadkach metoda Monte Carlo zawodzi, poniewa偶 polega na analizie ogromnej ilo艣ci przypadkowych poddrzew decyzyjnych, kt贸re si艂膮 rzeczy nie s膮 w stanie pokry膰 ca艂ego zbioru mo偶liwych kontynuacji.

Chwil臋 potem, jak ju偶 okaza艂o si臋, 偶e ruch 78 by艂 bardzo mocny, pojawia si臋 ciekawostka: pocz膮wszy od ruchu 87 a偶 do 104 AlphaGo wykonuje kilka bardzo s艂abych ruch贸w. Tak jakby nagle straci艂 3/4 swoich mocy i umiej臋tno艣ci. Tak jakby nie bra艂 pod uwag臋, 偶e przeciwnik ma swoj膮 kolej na wykonanie ruchu. I tak dalej.

Potem komputer jakby wraca "na tory", ale wobec przewagi Lee oraz jego perfekcyjnej gry, AlphaGo poddaje si臋 po 180 ruchu.

W poprzednich partiach AlphaGo pozwala艂 sobie na ruchy nieoptymalne, ale wszystko w ramach wygranej. Innymi s艂owy wiedz膮c, 偶e ma przewag臋, wola艂 zwi臋kszy膰 szans臋 wygranej o minimaln膮 ilo艣膰 punkt贸w, zamiast gra膰 nieco mocniej - ale te偶 ryzykowniej - 偶eby wygra膰 o wi臋cej punkt贸w. W Go nie ma bowiem bonus贸w za wi臋ksz膮 przewag臋 (wygrana o p贸艂 punktu liczy si臋 tak samo, jak wygrana o 20 punkt贸w). Tutaj natomiast, stoj膮c w obliczu lekkiej przewagi Lee, komputer po prostu zacz膮艂 gra膰 s艂abiej, bez 偶adnej wyra藕nej przyczyny.

Prawdopodobnie wkr贸tce b臋dzie wiadomo co艣 wi臋cej, jak ju偶 in偶ynierowie z Google przeanalizuj膮 ca艂膮 rozgrywk臋 z punktu widzenia maszyny. P贸ki co skazani jeste艣my jedynie na domys艂y.

Przypuszczam, 偶e rado艣膰 Lee nie potrwa d艂ugo, poniewa偶 moc obliczeniowa i "spryt" algorytm贸w graj膮cych s膮 ci膮gle poprawiane - ale cieszmy si臋 chocia偶 przez chwil臋 ze zwyci臋stwa Galarety nad Metalem.

Hura!

https://xpil.eu/rmf

Leave a Comment

Komentarze mile widziane.

Je偶eli chcesz do komentarza wstawi膰 kod, u偶yj sk艂adni:
[code]
tutaj wstaw sw贸j kod
[/code]

Je偶eli zrobisz liter贸wk臋 lub zmienisz zdanie, mo偶esz edytowa膰 komentarz po jego zatwierdzeniu.