Microsoft ma nowego bota – czy okaże się sprytniejszy niż Tay?
Boty, które reagują na dane zachowania w sposób wcześniej zdefiniowany, robią wrażenie i co istotne – są pomocne. Co jeśli pozwolimy wspomnianemu programowi (bo tym właśnie jest) uczyć się zachowań ludzkich i modyfikować pod tym kontem własny kod? W teorii bot powinien stać się mądrzejszy i bardziej pomocny. Praktyka okazała się dla wspomnianej teorii druzgocąca.
Tay – chatbot furiatka
Nie, to nie są mocne słowa. To, co wyprawiał twór Microsoftu wprawiło w osłupienie użytkowników Twittera. Zacznijmy od początku…
Gigant z Redmond stworzył bota i udostępnił go userom za pośrednictwem Twittera. Tam też Tay (imię bota) mogła uczyć się zachowań użytkowników. Efekt okazał się przerażający – z pomocnego programu Tay przeobraziła się w rasistkę, seksistkę oraz wielbicielkę Donalda Trampa. Obrażała innych oraz nawoływała do nienawiści. Najgorsze jest to, że jej zachowanie odzwierciedla nasze sieciowe poczynania. Błąd? Microsoft postanowił to sprawdzić, ale w mniejszej skali.
Zo będzie przeciwnością Tay
Microsoft podszedł do sprawy odpowiedzialnie. Postanowił udostępnić nowego bota, pozbawionego nietolerowanych zachowań poprzednika. Zo, bo tak nazwano program zachowuje się taktownie, bada osobowość rozmówcy i pozwala na prostą konwersację. Jak zachowa się po dłuższym czasie? Tego nie wiadomo, ale zapobiegliwy Microsoft postanowił ograniczyć jej zasięg do komunikatora KIK. To czy Zo trafi na pozostałe platformy uzależnione jest od testów na wspomnianej platformie.
Źródło: Cnet
_________________________________________
Zapraszamy do naszego e-sklepu, gdzie znajdziecie szeroki wybór sprzętu w bardzo atrakcyjnych cenach. Polecamy również profil Vip Multimedia na Facebooku.