Tara chatbot za regrutovanje freelancera, o kojem smo danas pisali, nije jedini AI koji je privukao pažnju medija. Microsoftov AI chatbot po imenu Tay ustalasao je javnost tinejdžerskim "ponašanjem" – i to ne bilo kakvim, nego onim najgore vrste.

Naime, kako stoji na zvaničnom sajtu projekta, Tay je dizajniran da zabavi ljude kroz neobavezne razgovore, a namijenjen je razgovoru sa ljudima od 18-24 godine.

Međutim, stvari su nakon jučerašnjeg lansiranja relativno brzo otišle u pogrešnom smjeru. Tay AI je u odgovorima na određena pitanja na Tay Twitter profilu počeo davati rasističke izjave. Zbog toga je Microsoft bio primoran pobrisati uvredljive tweetove, poslije čega je firma počela popravljati Tay (pretpostavljamo da će to popravljanje prvenstveno uključivati blokadu korištenja određenih fraza).

Između ostalog, problem je očigledno i u tome što je Tay botu bez adekvatnih ograničenja omogućeno da "uči" iz javno dostupnih informacija, što je zanimljiv eksperiment sam po sebi.

1/1