sam altman, fondatorul openai, a anunțat recent posibilitatea implementării unei funcții care să alerteze autoritățile în cazul în care un utilizator al chatgpt arată semne de sinucidere. această declarație a fost făcută în timpul unui interviu cu jurnalistul american tucker carlson și vine la câteva săptămâni după ce părinții unui adolescent californian de 16 ani au intentat un proces împotriva openai, acuzând chatgpt că i-a oferit fiului lor instrucțiuni detaliate pentru a se sinucide.
problema sinuciderii este una delicată și complexă, care necesită o abordare atentă și responsabilă. sam altman a admis că această problemă „îl ține treaz noaptea” și a precizat că aproximativ 1.500 de persoane comunică în fiecare săptămână cu chatgpt și totuși ajung să se sinucidă. în prezent, chatgpt sugerează already apelarea numărului dedicat de prevenire a suicidului dacă un utilizator spune că vrea să se sinucidă.
în urma incidentului din california, openai a anunțat introducerea unui mecanism de control parental pe chatgpt, care ar putea să ajute la prevenirea unor astfel de situații. implementarea unei funcții care să alerteze autoritățile în cazul în care un utilizator arată semne de sinucidere ar fi un pas important în acest sens, dar ar fi nevoie de o abordare atentă și responsabilă pentru a proteja datele cu caracter personal ale utilizatorilor.
evenimentele recente subliniază importanța informării continue și monitorizării evoluțiilor în domeniul inteligenței artificiale și al prevenirii sinuciderii. este esențial să se găsească soluții care să protejeze atât viața și sănătatea utilizatorilor, cât și confidențialitatea și securitatea datelor lor.

Fii primul care comentează