ChatGPT limitează discuțiile cu minorii. Sam Altman: „Prioritizăm siguranța înaintea intimității și libertății”

Inteligența artificială a devenit un partener de conversație pentru mulți, inclusiv pentru adolescenți. Dar, potrivit lui Sam Altman, CEO-ul OpenAI, siguranța minorilor vine înaintea libertății de exprimare sau a intimității lor:
„Prioritizăm siguranța înaintea intimității și libertății pentru adolescenți; aceasta este o tehnologie nouă și puternică, iar minorii au nevoie de protecție semnificativă. Trebuie să separăm utilizatorii sub 18 ani de cei care nu sunt, iar ChatGPT va aplica reguli diferite pentru adolescenți, evitând discuțiile flirtuoase sau despre suicid, chiar și în contexte de scriere creativă. Dacă un utilizator sub 18 ani manifestă idei suicidare, vom încerca să contactăm părinții sau, dacă nu este posibil, autoritățile în caz de pericol iminent”.
De ce ChatGPT limitează anumite conversații
Sistemul este programat să ofere o experiență sigură pentru tineri. Aceasta înseamnă că discuțiile despre subiecte sensibile sau riscante, cum ar fi auto-vătămarea sau flirtul, sunt restricționate pentru utilizatorii sub 18 ani.
Adulții se bucură de mai multă libertate în interacțiunile cu AI-ul, în timp ce adolescenții sunt protejați prin controale speciale și funcții de siguranță. Această diferențiere este esențială pentru evitarea expunerii copiilor la conținut potențial periculos.
În cazuri critice, cum ar fi gândurile suicidare, sistemul poate alerta părinții sau autoritățile. Astfel, AI-ul devine nu doar un instrument educațional, ci și un mecanism de prevenție pentru situații de risc.
CITEȘTE ȘI: E.ON România: peste 180 milioane euro investiți și 7.000 de locuri de muncă
Foto: ID 297916199 ©Rokas Tenys | Dreamstime.com