Cyberbullying: Cum poate fi folosită inteligența artificială cu scop de bullying

Utilizarea inteligenței artificiale în combaterea hărțuirii și abuzului online (cyberbullying) reprezintă un domeniu emergent, plin de provocări și oportunități. Succesul în acest demers depinde de colaborarea strânsă între diverse discipline și de angajamentul platformelor online, al cercetătorilor și al autorităților de reglementare în dezvoltarea și implementarea unor soluții eficiente și responsabile.
Studiul „Artificial Intelligence to Address Cyberbullying, Harassment and Abuse: New Directions in the Midst of Complexity” analizează utilizarea inteligenței artificiale (IA) în combaterea abuzului online și a hărțuirii cibernetice. Autorii Tijana Milosevic, Kathleen Van Royen și Brian Davis oferă o perspectivă asupra stadiului actual al cercetărilor în acest domeniu, evidențiind provocările existente și subliniind necesitatea unei colaborări interdisciplinare pentru a aborda eficient aceste probleme complexe.
Moderarea conținutului online și rolul IA
Comportamentele abuzive online, precum hărțuirea și abuzul, reprezintă o problemă semnificativă atât pentru copii, cât și pentru adulți. Pandemia COVID-19 a amplificat aceste probleme, unele studii indicând o creștere a prevalenței lor în perioada lockdown-urilor. Platformele online, inclusiv rețelele sociale și serviciile de mesagerie, joacă un rol crucial în moderarea acestor comportamente, însă volumul imens de conținut generat zilnic face imposibilă o moderare exclusiv umană. În plus, moderatorii umani pot suferi traume psihologice din cauza naturii sensibile și emoționale a conținutului analizat. Astfel, s-au intensificat eforturile de cercetare pentru a dezvolta tehnici algoritmice, precum procesarea limbajului natural și învățarea automată, care să automatizeze procesul de moderare și să identifice proactiv conținutul abuziv înainte ca acesta să fie raportat de utilizatori.
Provocările în detectarea abuzului online
Detectarea automată a abuzului online prezintă numeroase provocări. Complexitatea limbajului, contextul cultural și evoluția rapidă a jargonului online îngreunează dezvoltarea unor algoritmi eficienți. De asemenea, există riscul ca sistemele automate să genereze rezultate fals pozitive sau fals negative, afectând astfel eficiența moderării. Lipsa de transparență și responsabilitate a platformelor online în ceea ce privește modul în care gestionează conținutul abuziv reprezintă o altă problemă majoră. Autoritățile guvernamentale și organizațiile de reglementare, precum Oficiul Comisarului pentru Siguranță Online din Australia și diverse inițiative legislative din Europa, încearcă să abordeze aceste aspecte prin implementarea unor coduri de conduită și audituri care să asigure o mai bună supraveghere a activităților companiilor online.
Necesitatea colaborării interdisciplinare
Pentru a dezvolta soluții eficiente în combaterea abuzului online, este esențială o colaborare interdisciplinară. Aceasta implică implicarea experților din domenii precum informatica, psihologia, sociologia și studiile juridice. O astfel de abordare holistică permite o înțelegere mai profundă a dinamicii abuzului online și contribuie la dezvoltarea unor instrumente și politici mai eficiente. De asemenea, colaborarea între cercetători și practicieni poate facilita implementarea practică a soluțiilor propuse și adaptarea lor la nevoile reale ale utilizatorilor și comunităților afectate.
Foto: ID 125182371 © Fizkes | Dreamstime.com