Marc Ambasna-Jones Secondo un recente rapporto della National Society for the Prevention of Cruelty to Children (NSPCC), tra aprile 2014 e marzo 2015, la linea di aiuto per bambini e ragazzi, ChildLine, ha gestito 35.000 richieste di aiuto relative a una mancanza di autostima. Il rapporto identifica come cause principali “l’attacco costante da parte di cyberbulli, i social media e il desiderio di emulare i vip”. Julia Fossi, analista capo NSPCC per la sicurezza online, osserva che mentre la maggior parte delle piattaforme sta definendo azioni per migliorare la sicurezza, i social network dovrebbero sentirsi maggiormente responsabili per il contenuto pubblicato sui propri siti. Poiché i social adoperano sovente tecnologie di tracking per la pubblicità e per il marketing, osserva Fossi, potrebbero utilizzare tecnologie simili per “identificare situazioni di bullismo e determinare un intervento efficace per combatterlo”. Con episodi di cyberbullismo in costante crescita e maggiori probabilità che a soffrirne le conseguenze più gravi siano le femmine, Will Gardner, CEO, Childnet International dice che il tema è una “grossa sfida” e che i siti e le piattaforme social devono continuare a innovare con la tecnologia per affrontare il problema. Esaminiamo ciò che stanno facendo al riguardo quattro dei più grandi social network. Facebook Una delle regole di Facebook stabilisce che i ragazzi sotto i 13 anni non possono iscriversi, ma secondo studi di EU Kids Online e della London School of Economics il 50{f94e4705dd4b92c5eea9efac2f517841c0e94ef186bd3a34efec40b3a1787622} degli undicenni e dei dodicenni sono presenti su Facebook. Annunciando la Online Civil Courage Initiative – una partnership tra Facebook e alcune Ong per finanziare campagne contro il terrorismo e il bullismo – Sheryl Sandberg, COO Facebook, ha affermato che “non c’è posto nel mondo per i discorsi di odio – neanche su internet”. Facebook controlla i contenuti sul proprio sito in base alle segnalazioni inviate dagli utenti al proprio staff globale di supporto, attivo 24 ore su 24, 7 giorni su 7. Facebook dice di aver reso più trasparente l’iter delle segnalazioni, con un apposito pannello di controllo per consentire agli utenti di seguirne l’evoluzione, ma non sono disponibili dati aperti sulla risoluzione delle segnalazioni e su quanti utenti e quante pagine abusive vengono rimossi. La rete ha comunque creato un Centro per la sicurezza della famiglia che fornisce informazioni agli adolescenti e ai loro genitori, e consiglia agli utenti di bloccare o di togliere l’amicizia a utenti abusivi. Twitter Un fuga di notizie dello scorso anno ha reso pubblica la frase dell’ex CEO di Twitter, Dick Costolo: “Twitter fa schifo quando si tratta di abusi e troll”. Da allora, Twitter ha semplificato il processo per la segnalazione di abusi e altre problematiche relative al contenuto, tra cui la sostituzione di persona e la condivisione di informazioni private e riservate. In una mossa cruciale, il sito ha anche aggiornato le procedure di applicazione delle regole, utilizzando una risposta automatizzata e umana per condurre le indagini e adottare rapidamente azioni appropriate. Twitter dice che procederà contro utenti abusivi secondo il grado di severità che la situazione richiede: si va dall’imporre l’eliminazione di tweet specifici, alla sospensione permanente degli account. Come Facebook, non pubblica dati sull’efficacia delle politiche e delle segnalazioni. L’anno scorso Twitter ha istituito un Centro di sicurezza per insegnare la sicurezza online agli utenti, con sezioni specifiche per adolescenti, genitori e insegnanti. Ha anche annunciato una collaborazione a favore della sicurezza online, con Cycle Against Suicide, un’associazione di beneficienza. Snapchat Secondo un rapporto, in occasione del Safer Internet Day 2015, Snapchat è la terza app di messaging e social media più diffusa nella fascia di età 11-16 (dopo Facebook e YouTube). L’app ha definito linee guida per la comunità, specificando quello che gli utenti non devono spedire, tra cui molestie, minacce e nudità. Come con altri siti e app, gli utenti possono bloccare altri utenti e segnalare abusi. Opera un Centro di sicurezza che fornisce consigli, prodotti in collaborazione con gli esperti di iKeepSafe, UK Safer Internet Centre e ConnectSafely. A novembre l’app ha siglato un accordo con Vodafone per aumentare la consapevolezza del cyberbullismo, offrendo agli utenti emoji da condividere contro gli abusi online. Eppure, secondo la Guida Net Aware della NSPCC, “il 64{f94e4705dd4b92c5eea9efac2f517841c0e94ef186bd3a34efec40b3a1787622} dei bambini che abbiamo interpellato pensa che Snapchat possa essere rischioso”. Instagram Di proprietà di Facebook dal 2012, Instagram offre linee guida per la comunità e consigli per genitori su questioni del tipo “chi può vedere le foto di mio figlio adolescente?”. Come su Facebook, gli utenti devono avere almeno 13 anni, ma è facile mentire sulla propria età e iscriversi comunque. Instagram favorisce la denuncia della presenza di minorenni con un modulo online o tramite le segnalazioni in app. Questo vale anche per i contenuti abusivi, la sostituzione di persona e i cosiddetti hate account. L’azienda dice di monitorare le segnalazioni 24 ore su 24, 7 giorni su 7, per verificare abusi, chiudere account e fare denuncia presso le autorità, ma non pubblica dati per consentire di misurare l’efficacia delle contromisure. La possibilità di seguire gli account di persone sconosciute e di accedere a materiale non appropriato è stata rilevata dalla NSPCC, anche se la maggior parte dei contenuti è considerato di basso rischio.   Fonte: http://www.theguardian.com/sustainable-business/2016/feb/09/social-media-networks-child-protection-policies-facebook-twitter-instagram-snapchat]]>