Uczestnicy konkursu, który odbył się na zorganizowanej przez nowojorski instytut IEEE konferencji dotyczącej sztucznej inteligencji i gier, mieli za zadanie takie zaprogramowanie wirtualnych przeciwników do Unreal Tournament 2004, by wydawali się oni jak najbardziej ludzcy. Udające ludzi programy były później umieszczane w meczu z innymi graczami, a ci musieli ocenić, którzy z ich rywali sterowani są przez algorytmy AI, a którzy nie.
Zwycięzców było dwóch. Risto Miikkulainen, profesor z Teksasu wraz z doktorantami oraz Mihai Polceanu, informatyk z Rumunii. Stworzone przez nich programy uznawane były podczas rozgrywek za ludzkich przeciwników w 52% przypadków. Podzielili się za to nagrodą w wysokości 7 tysięcy dolarów.
Faktyczni ludzie uznawani byli podczas rozgrywek za ludzkich przeciwników w 42% przypadków.
W jaki sposób udało się stworzyć programy, które w oczach obserwatorów zachowywały się bardziej ludzko niż sami ludzie? Twórcy postawili na omylność. Jak zauważyli, gracze podczas rozgrywek wieloosobowych często zachowują się nieracjonalnie i nieekonomicznie, przywiązując chociażby zbyt dużą wagę do wyrównywania rachunków z wybranymi przeciwnikami. Boty, które zwyciężyły konkurs, bazowały na sieciach neuronowych, które faworyzowały działania nie tyle najbardziej efektywne, co właśnie najbardziej ludzkie.
Oczywiście do stworzenia sztucznej inteligencji w pełnym znaczeniu tego zwrotu jest ciągle bardzo, bardzo daleko. I nie, to że boty były nierozpoznawalne w deathmatchu nie oznacza, że przeszły test Turinga, jak sugerują niektórzy komentatorzy. Kiedy Turing mówił o tym, że prawdziwie myśląca maszyna powinna być nie do odróżnienia od człowieka, nie miał na myśli sieciowych rozgrywek w pierwszoosobowe strzelanki.
Ale może lepiej, żeby nad tym w ogóle nie pracowano?