O autorze
zapiski filozofującego rowerzysty i miłośnika podkastów Bez ipoda nie da się filozofować

tłumaczenia

środa, 06 kwietnia 2011

Trochę jak dawni filozofowie analityczni spróbujmy porównać dwa dialogi

 

A: Can you cycle 100 km in a day?

B: I don’t know. I’ve never tried

 

A: Can you speak Hindi?

B: I don’t know. I’ve never tried

 

Pierwszy z nich wydaje się mieć sens drugi nie. Nauczenie się języka obcego wymaga tyle wysiłku, że przeważnie wiemy, czy znamy hindi czy nie. Okazuje się jednak, że mogą w nas tkwić zupełnie ukryte umiejętności lingwistyczne. Ja ostatnio piszę e-maile w języku hindi, czego nigdy bym się nie spodziewał.

 

Zacznijmy od tego, że wybieram się do Indii. Tak dla zabawy zacząłem tłumaczyć e-maile do tamtejszych znajomych za pomocą Google Translate i nie wychodziło najgorzej. Napisałem:

 

I am going to India. Meet me at the airport.

 

मैं भारत के लिए जा रहा हूँ. मुझे हवाई अड्डे पर मिलो.

 

Co jak co, ale robaczki wyglądają imponująco. (Tak naprawdę wiadomość była inna i bardziej skomplikowana, ale prywatnych e-maili nie będę tu cytował). Adresat odpisał i skomentował tłumaczenie (tej bardziej skomplikowanej wypowiedzi):

 

The words are almost all right! The ordering in the sentence is I guess not so easy!

 

Chciałem sprawdzić, czy rzeczywiście poszło mi tak dobrze. Przetłumaczyłem z hindi tym razem na polski (bo ten pierwszy oryginał – przypominam - jest po angielsku)

 

Idę do Indii. Spotkaj mnie na lotnisku.

 

A zatem tłumaczenie jest doskonałe. Po tym sukcesie warto się zastanowić, czy Google Translator wnosi coś do rozważań nad sztuczną inteligencją. Chyba tak, bo bierze się za tłumaczenie, które uchodzi coś, z czym maszyna nie może sobie poradzić (w przeciwieństwie na przykład do sprawdzania pisowni. Swoją drogą ludzie od Google’a mieli niezły pomysł. Zamiast bawić się w kodowanie struktur syntaktycznych, olali całkowicie gramatykę, i oparli się na analizie statystycznej, przy czym szczegóły są mi osobiście nieznane. Więcej na ten temat tu http://en.wikipedia.org/wiki/Google_Translate. Dla niektórych języków automat tłumaczy całkiem nieźle, co pokaże najlepiej przytoczone poniżej tłumaczenie z angielskiego na temat chińskiego pokoju Searle’a. Bo taka wymiana e-maili, tłumaczonych mechanicznie trochę mi przypomina słynny eksperyment myślowy, który zaowocował tyloma artykułami naukowymi.

 

Najpierw oryginalny tekst na temat chińskiego pokoju Searle’a z następującej strony

 

http://philosophy.uwaterloo.ca/MindDict/chineseroom.html

 

Suppose that, many years from now, we have constructed a computer which behaves as if it understands Chinese. In other words, the computer takes Chinese symbols as input, consults a large look-up table (as all computers can be described as doing), and then produces other Chinese symbols as output. Suppose that this computer performs this task so convincingly that it easily passes the Turing Test. In other words, it convinces a human Chinese speaker that it is a Chinese speaker. All the questions the human asks are responded to appropriately, such that the Chinese speaker is convinced that he or she is talking to another Chinese speaker. The conclusion proponents of strong AI would like to draw is that the computer understands Chinese, just as the person does.

 

A następnie przekład na polski absolutnie bez żadnych poprawek

 

Załóżmy, że wiele lat, skonstruowaliśmy komputer, który zachowuje się jakby rozumiał język chiński. Innymi słowy, komputer bierze chińskie symbole wejściowe, konsultuje się z dużym Look-Up Table (jak wszystkie komputery można określić jako sposób), a następnie tworzy inne chińskie symbole jako wyjście. Załóżmy, że ten komputer wykonuje to zadanie w sposób tak przekonujący, że łatwo przechodzi test Turinga. Innymi słowy, przekonuje Chińczyka, że ​​jest Chińczykiem. Wszystkie pytania, które człowiek zadaje, udziela właściwych odpowiedzi, tak, że Chińczyk jest przekonany, że on lub ona rozmawia z innym Chińczykiem. Zwolennicy mocnej sztucznej inteligencji zawarcia pragnie zwrócić to, że komputer rozumie chiński, tak jak człowiek.

 

Co najmniej pierwsze zdanie wygląda, jakby napisał je dość kompetentny ale niezbyt uważny tłumacz. Mnie się zdarzało pisać gorsze (z zawodu jestem tłumaczem). Usuwałem je dopiero w korekcie. A zatem można domniemywać, że gdyby Google Translate miał swój szczęśliwy dzień, to mógłby zaliczyć test Turinga, który przypominam polega z grubsza na tym, że człowiek nie może odróżnić, czy jego rozmówcą jest inny człowiek, czy maszyna (w tym konkretnym wypadku: czy dane zdania przetłumaczył człowiek czy maszyna.