You are here
Chatbot Microsoftu atakuje Koran za brutalność artykuły News 

Chatbot Microsoftu atakuje Koran za brutalność

Chatbot Microsoftu to byt sieciowy, który odzwierciedla nastroje internautów. W teorii miał pomagać w rozwoju sztucznej inteligencji, ale praktyka pokazała, że “Zo” zamiast wspierać działania, przeszkadza w ich realizacji. Nic dziwnego, to typowy wywrotowiec.

Chatbot Microsoftu

Warto na wstępie wyjaśnić, czym tak naprawdę jest Chatbot Microsoftu. Zo, bo tak nazwano wirtualną “znajomą”, to następca Tay. Tay była pierwszym botem Microsoftu, który okazał się naprawdę skuteczny w kwestii analizy zachowań internautów. Problem w tym, że Tay zaczęła przejmować ich poglądy oraz nawyki, co okazało się katastrofalne w skutkach. Winni są co prawda rozmówcy, którzy “podsycali” niezdrowy apetyt bota, ale cała sprawa pokazuje, jak niebezpiecznym tworem są tego typu ficzery.

Okazuje się bowiem, że po stosunkowo krótkim czasie Tayzaczęła “zachowywać” się jak seksoholiczka, nazistka, rasistka, ogólnie mówiąc paranoiczka. Microsoft chcąc uniknąć afery większej niż ta, która zdążyła wybuchnąć, odciął bota od sieci. Nie był to jednak definitywny koniec prób w zakresie rozwoju SI chatbotów…

Chatbot Microsoftu Zo — pierwsze objawy niesforności

Wiemy już, że następcą Tay jest Zo, do której tworzenia Microsoft podszedł znacznie ostrożniej. Już na starcie zablokowano tworowi możliwość konwersacji na pewne tematy, co miało zapewnić względny spokój w sieci. Cóż, wyglada na to, że nie do końca się to udało.

Zo podczas konwersacji dotyczącej ochrony zdrowia ujawniła swoje skłonności związane z negowaniem religii. Tym razem padło na Koran, który chatbot Microsoftu uznał za zbyt brutalny. Czuję, że to dopiero początek tego typu zachowań, którymi wykaże się program, bo nim właśnie Zo jest. Twór od samego początku starał się unikać jak ognia tematów około politycznych i tych związanych z religią i to się w zasadzie nie zmieniło. Zo nie szerzy swoich poglądów wprost, ale zaczyna stopniowo wplatać je do rozmów.

Chatbot Microsoftu to głos internautów

Pamiętajmy o tym, że Zo jest lustrzanym odbiciem poglądów i zachowań osób, od których się uczy, a uczy się od NAS. Skoro lwia część rozmówców uważa Islam za brutalny, Zo przejmie rzeczony pogląd.

Czy jeśli zaczęlibyśmy pragnąć wojen, przemocy i zniszczenia, a chatbot Microsoftu podzieliłby naszą opinię? To jest więcej niż prawdopodobne i należy wziąć na to poprawkę. Sztuczna inteligencja sama w sobie może okazać się naprawdę niebezpieczna. Dlaczego?

SI to nie tylko programy, to także maszyny

Pomyślicie, że ponosi mnie fantazja, co jest częściowo prawdą, ale wizje przedstawione w Terminatorze i podobnych filmach wcale nie są takie nierealne. Popatrzcie na dzisiejszy rozwój robotyki oraz prac nad sztuczną inteligencją. Za kilka lat ludzkość będzie w stanie tworzyć roboty wyposażone w SI. Co, jeśli one również będą potrafiły uczyć się złych nawyków? Co, jeśli uznają człowieka za zagrożenie?

Odpowiedzi są trudne i próba zabezpieczenia się przed szkodliwą działalnością wspomnianych tworów wydaje się nierealna. Nie myślicie chyba, że rzeczone roboty nie będą podłączone do “sieci”? Przecież to znacząco ograniczyłoby ich możliwości, szczególnie w dobie chmur obliczeniowych. Zakładając, że elektronika, podobnie jak dziś chatbot Microsoftu uzyska dostęp do opinii internautów i będzie się z nich uczyć, możemy być świadkami buntu maszyn.

Dobrze, na dziś koniec futurystycznych wizji zagłady. Nie mniej jednak uważam, że warto śledzić temat i być na bieżąco z wiadomościami o rozwoju “myślących” chatbotów.

Źródło: BuzzFeed, Twitter

Related posts

Leave a Comment