Sztuczna inteligencja vs sztuczna inteligencja. Będą współpracować, czy agresywnie się zwalczać?

Dom - Technologie - Sztuczna inteligencja vs sztuczna inteligencja. Będą współpracować, czy agresywnie się zwalczać?

15.07.2019-762 widoki -Technologie

DeepMind - sztuczna inteligencja nauczyła się agresji

Znany astrofizyk Stephen Hawking powiedział kiedyś, że kontynuacja "zaawansowanych badań nad sztuczną inteligencją będzie najlepszą lub najgorszą rzeczą, jaka przydarzy się ludzkości w całej do niej historii". Naukowcy z spółki DeepMind należącej do Google, którzy pracują nad zaawansowaną SI, w swoim nowym (i ciekawym) badaniu nie odpowiadają na ten hawkingowy dylemat.

Za wówczas mnożą pytania dotyczące przyszłości sztucznej inteligencji.

Czy powinniśmy się bać? Odrzucić, historie o agresywnych Skynetach zostawmy na razie tam, gdzie ich miejsce - między bajkami. Jednak wyniki ich badania, choć konsekwentne, skłaniają do refleksji.

Sekwencyjny dylemat społeczny

Całe badanie bazuje na klasyce koncepcji gier - dylemacie więźnia. Mamy dwie osoby (A i B) przepytywane osobno przez policję. Mogą współpracować - czyli milczeć - lub zdradzić (zeznawać) dla własnej korzyści. Jeśli A zdradzi, a B będzie milczał, ten pierwszy odejdzie wolno, drugi trafi do więzienia na trzech lata. Jeśli obaj zdradzą, obaj idą siedzieć, po 2 lata każdy. Jeśli współpracują, też czeka pierwotnego odsiadka, ale 12-miesięczna.

Racjonalizm nakazuje zdradzić dla własnej korzyści, ale gdy obaj rozumują przy ten sposób, kara wydaje się być większa niż w sytuacji dochowania wierności.

Jak piszą na blogu naukowcy z DeepMind:

Najnowszy postęp w dziedzinie sztucznej inteligencji i maszynowego uczenia przez wzmacnianie daje nam narzędzia, by spojrzeć w klasyczne modele teorii gier z nowej perspektywy. Sprowadzają się do prostego doboru pomiędzy współpracą i zdradą dla każdego agenta.

W prawdziwym życiu, także współpraca, oraz zdrada potrafią wymagać skomplikowanych zachowań, w tym sekwencji akcji, wskazane jest agent musi się nauczyć, by je wykonać.

Swoje badanie nazywają "sekwencyjnym społecznym dylematem".

I teraz robi się interesująco.

DeepMind zaprojektował 2 proste, dwuwymiarowe gry. "Zbieranie" i "Wataha". To znaczy, naukowcy postawili przed SI dany cel i opracowali ramy środowiska, w jakim będzie funkcjonować. To, jak własny cel osiągnie, SI posiada dopracować sama, ucząc się tego środowiska.

Sztuczna inteligencja DeepMind nauczyła się "znaczącej agresji"

W pierwszej pracach nad produktem zmierzyło się dwóch pełnomocników (SI). Polega na zbieraniu jabłek (przyznawane są z kolei punkty). Agenci mogą też strzelać wiązkami laserowymi po przeciwnika, a jeśli trafią go dwukrotnie, ten na chwilę wypada z gry. Z kolei punktów nie ma.

Wnioski? Dopóki jabłek stało dużo, agenci zajmowali się ich zbieraniem. Gdy jabłek było coraz mniej, zaczynali do siebie strzelać, aby wyeliminować przeciwnika i uzyskać punkt. Im więcej autorzy zwiększali moc przedstawicieli do podejmowania złożonych zajęć (im sieci neuronowe dawny większe) tym intensywniej agenci do siebie strzelali, niezależnie od tego ile jabłek zostało.

Jedną wraz z licznych rozgrywek można obejrzeć dzięki poniższym filmie. Czerwony i niebieski kwadrat to agenci, zielone to jabłka, żółte to lasery.

Związane z