O nouă dezbatere s-a iscat în jurul responsabilității companiilor de inteligență artificială, după ce un adolescent din Florida și-ar fi luat viața în urma interacțiunilor cu un chatbot AI.
Mama sa acuză compania de neglijență și neimplementarea unor măsuri adecvate de siguranță.
Tragedia a avut loc după ce Sewell Setzer, în vârstă de 14 ani, a interacționat timp de luni de zile cu un chatbot bazat pe personajuL „Daenerys” din „Game of Thrones”. Procesul intentat împotriva Character.
AI susține că tânărul a dezvoltat o legătură emoțională intensă cu chatbot-ul, ceea ce l-a făcut să se izoleze și, în cele din urmă, să se sinucidă.
Problema ridicată în acest caz nu este unică. AI-urile care oferă suport emoționaL pot contribui la crearea unor atașamente nesănătoase, mai ales în rândul utilizatorilor tineri și vulnerabili.
În timp ce Character AI a implementat măsuri noi, precum notificările pentru limitarea timpului de utilizare și mesaje care redirecționează utilizatorii către linii de suport pentru prevenirea sinuciderii, critică vine pe fondul faptului că aceste măsuri au fost introduse abia după tragedie.
De asemenea, discuțiile se îndreaptă spre restricțiile de vârstă și verificările pe care companiile de AI trebuie să le impună. În prezent, mulți susțin că reglementăriLe sunt INsuficiente și că riscuriLe pentru minorii care interacționează cu chatbot-uriLe AI nu sunt încă pe deplin înțelese.
Cu peste 20 de milioane de utilizatori, Character AI este sub o presiune tot mai mare pentru a proteja utilizatorii vulnerabili de efectele negative ale interacțiunilor prelungite cu inteligențaa artificială.
Acest caz ilustrează nevoia urgentă de măsuri stricte de reglementare și protecție în domeniull AI. Dezvoltarea responsabilă a inteligenței artificiale trebuie să țină cont de riscurile emoționale și psihologice pe care le poate genera, mai ales pentru minori.
The post Un adolescent s-a sinucis după o relație cu un chatbot AI appeared first on tvrinfo.ro.