Odtrąbione niedawno domniemane zdanie Testu Turinga przez pewien program konwersacyjny, który w opinii ponad 50% jego użytkowników skutecznie podszywa się pod człowieka, mogło wzbudzać w krytycznie nastawionym odbiorcy informacji medialnych mieszane uczucia. Czy rozmowa prowadzona za pomocą językowych klisz, zdań wyrwanych z kontekstu, najczęściej niemających nic wspólnego z mozolnie rozwijanym i raz po raz rwącym się wątkiem, może sprawiać wrażenie wytworu zdrowego ludzkiego umysłu?
Takiej możliwości nie można wykluczyć. Do pomyślenia są przecież nie tylko sytuacje, w których może dojść do wzięcia niezłego robota za człowieka, ale nawet takie, w których możliwe jest wzięcie człowieka za robota...
Jakie cechy słabego ludzkiego rozmówcy mogą doprowadzić do pomylenia go z wysoce niedoskonałym konwersacyjnym programem komputerowym? Odpowiedzi na to pytanie poszukiwało dwoje kanadyjskich naukowców: Catherine L. Lortie i Matthieu J. Guitton. Wyniki ich analiz opublikowano w PLoS ONE w dniu 22 września 2011.
"Już w najwcześniejszych badaniach nad zagadnieniem sztucznej inteligencji - przypominają autorzy we wprowadzeniu teoretycznym do artykułu - aktywność językowa uchodziła za ten rodzaj »wyjścia«, który w sytuacjach eksperymentalnych szczególnie nadaje się do oceny podobieństwa zdolności poznawczych maszyny i człowieka. Jeden z pionierów na polu badań nad sztuczną inteligencją, Alan Turing, zaproponował test (który z biegiem czasu zdobył nawet pewną sławę), aby ustalić, czy maszyna potrafi skutecznie naśladować człowieka. Test Turinga to sytuacja eksperymentalna, w której osoba ludzka i program komputerowy, pozostając w ukryciu dla obserwatorów, komunikują się z kimś tylko za pośrednictwem wiadomości tekstowych. Jeżeli człowiek nie jest w stanie jednoznacznie wskazać, czy rozmawia z innym człowiekiem czy z komputerem, to znaczy - gdy na podstawie wiadomości tekstowych nie da się odróżnić komputera od człowieka, uznaje się, że program komputerowy zdał Test Turinga".
Ponieważ próby stworzenia programu komputerowego, który mógłby podszywać się pod człowieka, nie przyniosły dotąd w pełni zadowalających rezultatów, Lortie i Guitton proponują spojrzenie na problem z zupełnie innej strony, a w zasadzie - wywrócenie go do góry nogami.
"Zdecydowaliśmy się na rodzaj rewolucji kopernikańskiej - kontynuują autorzy - Zamiast koncentrować się na cechach »dobrego robota«, skupiliśmy się na cechach »słabego człowieka«, to jest na ludziach, którzy przez sędziów oceniani są jako »nieludzie«. Zadaliśmy sobie pytanie, czy możliwe byłoby ścisłe określenie parametrów skutecznej interakcji w sytuacji komunikowania się za pośrednictwem komputera na podstawie analizy zachowań językowych osób branych przez sędziów za maszyny".
Skąd taki pomysł? Naukowcy odnotowują, że choć prestiżowe konkursy, takie jak Nagroda Loebnera (Loebner Prize in Artificial Intelligence), stwarzają doskonałe możliwości przeprowadzenia Testu Turinga w ściśle określonych i kontrolowanych warunkach, to do tej pory ignorowano jeden z najbardziej interesujących aspektów tego przedsięwzięcia.
"Od lat zdarza się - zauważają autorzy artykułu - że niektórzy ludzie są brani przez sędziów za komputer. Podczas gdy programy komputerowe próbują oszukać sędziów w ten sposób, by uwierzyli oni, że maszyny są istotami ludzkimi, ludziom nie powinno sprawiać szczególnej trudności przekonanie innych ludzi o swojej »ludzkości«. Jak to możliwe, że ludzie biorący udział w teście są odbierani przez innych ludzi jako »nieludzie«? Jakie warunki muszą być spełnione, by zagwarantować, że człowiek zostanie zidentyfikowany jako człowiek w interakcji sprowadzonej do wymiany wiadomości tekstowych za pośrednictwem komputera?".
W badaniach wykorzystano materiał pochodzący z konwersacji prowadzonych w ramach konkursu o Nagrodę Loebnera, który przeanalizowano pod kątem parametrów opisowych (np. długość wypowiedzi, ilość słów, zdań, ilość słów danego rodzaju itp.), poznawczych (odniesienia do sytuacji własnej z użyciem zaimka "ja", odniesienia do rodziny i znajomych, wyraz emocjonalny) i poziomu okazywanego zainteresowania, mającego na celu podtrzymanie kontaktu między rozmówcami (m. in. ilość pytań, ilość pytań w poście, ilość wyrazów służących bliższemu poznaniu się).
Sędziowie biorący udział w Teście Turinga nie są jednorodną grupą. Sędziowie, którzy są skłonni spostrzegać rozmowcę jako człowieka (linia szara) cechują się innym stylem ekspresji niż sędziowie, którzy są skłonni brać swojego rozmówcę za robota (linia czarna). Ci ostatni są m.in. o wiele bardziej agresywni.
Wyniki badań wskazują przede wszystkim, że zanim przejdzie się do oceny komputerów i osób biorących udział w Teście Turinga pod względem "ludzkości", należałoby najpierw przyjrzeć się bliżej samym sędziom, o których można przecież orzec, że są ludźmi, ze stuprocentową pewnością. Wiele zależy bowiem od nastawienia sędziego, a dokładnie od tego, czy jest przekonany, że ma do czynienia z komputerem lub z człowiekiem.
"Najważniejszym wnioskiem płynącym z naszych badań jest stwierdzenie istotnych różnic w reagowaniu sędziów w zależności od tego, czy spostrzegali swojego współrozmówcę jako człowieka lub maszynę - komentują wyniki swoich badań Lortie i Guitton - Uczestnicy badań (maszyny lub ludzie, przyp. tłum.) brani przez sędziów za roboty używali istotnie mniej słów w poście, używali mniej długich słów i mniej przedimków niż uczestnicy brani przez sędziów za ludzi. Co więcej, uczestnicy brani za ludzi pisali więcej postów i częściej prawili komplementy niż sędziowie oceniający ich jako ludzi. Ponadto używali więcej słów w poście, więcej długich słów i więcej przedimków niż sędziowie biorący ich za ludzi. W końcu, sędziowie biorący uczestnika za człowieka sami zadawali ogólnie więcej pytań, zadawali więcej pytań w jednym poście i używali również więcej słów służących wzajemnemu poznaniu niż uczestnicy brani za ludzi".
Sędziowie skłonni przyznawać, że za swojego współrozmówcę mają istotę ludzką, przejawiają rodzaj ekspresji, który sam jest podobny do stylu wyrażania siebie przez uczestnika testu. Natomiast sędziowie skłonni brać swojego współrozmówcę za komputer różnią się istotnie pod jednym względem - są o wiele bardziej agresywni.
"Aby być branym za człowieka, na poziomie behawioralnym roboty powinny być zdolne do udzielenia zrównoważonej pod każdym względem odpowiedzi swojemu ludzkiemu rozmówcy. Z drugiej strony - oznaki zainteresowania ze strony sędziego pozwalają przewidzieć, czy weźmie on swojego rozmówcę za istotę ludzką. Wynika stąd, że (przynajmniej do pewnego stopnia) ocena poziomu »ludzkości« uczestnika testu zależy od cech samego sędziego".
Referencje dokumentu: Lortie CL, Guitton MJ (2011) Judgment of the Humanness of an Interlocutor Is in the Eye of the Beholder. PLoS ONE 6(9): e25085. doi:10.1371/
journal.pone.0025085 Caden O. Reless |