Le grandi piattaforme digitali esercitate da Meta e da Google sono finite sotto il maglio della giustizia americana che ha riconosciuto gli algoritmi delle due aziende sviluppati per Instagram e YouTube per creare dipendenza tra gli utenti, specie tra gli adolescenti che vedrebbero alterato il loro equilibrio psicofisico.
In due sentenze, emesse tra il 24 e il 25 marzo, le giurie a Los Angeles e nel New Mexico hanno ritenuto il gruppo guidato da Mark Zuckerberg responsabile per i danni arrecati alla salute mentale e alla sicurezza dei minori, a causa della programmazione e della gestione dei suoi social media, quali Facebook e Instagram. I verdetti segnano un punto di svolta e un precedente nel quadro normativo statunitense, aggirando lo scudo legale tradizionalmente offerto dalla Sezione 230 del Communications decency act del 1996, norma federale che esonera le piattaforme online dalla responsabilità legale per i contenuti pubblicati dai loro utenti. La Sezione 230, nello specifico, recita che «nessun fornitore o utilizzatore di un servizio informatico interattivo deve essere trattato come l’editore o l’autore di informazioni fornite da un altro fornitore di contenuti informativi».
Le cause legali si sono concentrate sui difetti di progettazione del prodotto e sulla frode ai consumatori, piuttosto che sui contenuti pubblicati dagli utenti. Nel caso dibattuto a Los Angeles, la giuria ha condannato Meta di Mark Zukerberg – titolare di Instagram – e, in misura minore, Google di Sundar Pichai – in qualità di controllante di YouTube – a risarcire una ragazza di 20 anni con 6 milioni di dollari.
La sentenza ha stabilito che l’architettura delle piattaforme, attraverso funzioni come lo scorrimento infinito e la riproduzione automatica dei contenuti e gli algoritmi di raccomandazione, sarebbe stata progettata per generare dipendenza, contribuendo a causare depressione, ansia, dismorfofobia e pensieri suicidi nella querelante fin dalla sua infanzia. Il risarcimento, suddiviso in 3 milioni di dollari per danni compensativi e 3 milioni per danni punitivi, sarà a carico di Meta per il 70% della somma, pari a 4,2 milioni di dollari, mentre a Google spetterà versare il rimanente 30%.
La giuria ha riscontrato che le due aziende avrebbero agito con malizia e frode, ignorando i rischi per i minori pur essendone a conoscenza. Snapchat e TikTok, originariamente imputate nel caso, avevano raggiunto un accordo extragiudiziale prima dell’inizio del processo.
Ben più ingente la sanzione di 375 milioni comminata alla sola Meta il giorno precedente nel New Mexico, da una giuria di Santa Fé, in un caso distinto e intentato dal procuratore generale dello Stato Raúl Torrez. L’azienda è stata giudicata colpevole di aver violato il New Mexico unfair practices act, legge statale sulle pratiche commerciali scorrette, poiché avrebbe ingannato gli utenti circa la sicurezza delle sue piattaforme e facilitato lo sfruttamento sessuale dei minori.
A orientare il caso sono stati i risultati di un’operazione sotto copertura “Metaphile“, in cui falsi profili di minori creati dalle autorità sono stati rapidamente presi di mira da predatori sessuali. Secondo l’accusa, le raccomandazioni algoritmiche dell’azienda avrebbero creato “cicli predatori algoritmici”, mentre i dirigenti di Menlo Park avrebbero ignorato gli avvertimenti lanciati dai team di sicurezza, con il fine di perseguire il profitto e il coinvolgimento degli utenti.
Meta e Google hanno entrambe espresso la propria contrarietà con il verdetto californiano, annunciando l’intenzione di ricorrervi in appello. I rappresentanti legali delle aziende sostengono di aver implementato numerose misure per la sicurezza degli utenti e controlli parentali, negando l’esistenza di un legame scientifico diretto e univoco tra le app e la crisi della salute mentale degli adolescenti. I procedimenti legali, tuttavia, non sono conclusi.
A maggio si aprirà la seconda fase del processo nel New Mexico, in cui un giudice, senza giuria popolare, determinerà se Meta costituisca un «disturbo della quiete pubblica». In questa fase, il procuratore generale chiederà al tribunale di imporre modifiche strutturali e obbligatorie alla progettazione di Instagram e Facebook, quali l’implementazione di sistemi efficaci di verifica dell’età e la modifica della crittografia end-to-end per le comunicazioni che coinvolgono minori.
«Meccanismi come lo scorrimento infinito, le notifiche o gli algoritmi in raccomandazione sono progettati per catturare e mantenere l’attenzione soprattutto nei più giovani. Da un punto di vista psicologico questo è un punto cruciale – spiega Valentina Di Mattei, presidente dell’Ordine degli psicologi della Lombardia -. Parliamo di sistemi che a livello cerebrale agiscono sui circuiti della ricompensa favorendo un uso ripetitivo e in alcuni casi anche problematico. Nei minori, che hanno evidentemente strumenti di autoregolazione ancora in sviluppo, l’impatto può essere più forte e può associarsi ad ansia, ritiro sociale o sindrome depressive. Quello che questa sentenza però introduce è un principio di responsabilità condivisa. Le piattaforme non sono più neutrali, ma sono degli ambienti che possono influenzare attivamente i comportamenti e questo apre un tema centrale anche in Europa: la necessità di regole chiare, trasparenza sugli algoritmi e una maggiore tutela soprattutto dei minori».
A Bruxelles qualcosa si sta lentamente muovendo. La Commissione europea pubblicherà a breve i risultati dell’indagine su Meta riguardante i sistemi di verifica dell’età degli utenti su Facebook e Instagram: lo ha annunciato la vicepresidente della Commissione, Henna Virkkunen, precisando che l’inchiesta è in una fase «molto avanzata. Mi aspetto che avremo i primi risultati abbastanza presto. Verificare se l’utente ha almeno 13 anni è il primo passo fondamentale, poiché sappiamo che ragazzi molto più giovani utilizzano attivamente i social media».
Virkkunen ha spiegato che per piattaforme come quelle di Meta non è richiesto lo stesso rigore previsto per i servizi «ad alto rischio», quali siti pornografici, gioco d’azzardo o vendita di alcolici. Tuttavia, Bruxelles si aspetta l’uso di «tecnologie specifiche» che non si limitino alla «semplice spunta» per verificare l’età degli utenti, ha concluso la vicepresidente, ribadendo che per i minori è necessario garantire sempre «un elevato livello di protezione» online.
Le sentenze dei giudici americani – e si spera che anche in Europa la giustizia si svegli – riducono grandemente l’area di impunibilità di cui si sono sempre circondati gli operatori delle piattaforme digitali che hanno sempre trattato gli utenti come limoni da spremere a loro esclusivo vantaggio, spesso sorvolando anche sulla violazione dei contenuti protetti da copyright come quelli prodotti dagli editori di giornali. Le aziende tecnologiche devono assumersi le proprie responsabilità e garantire un ambiente online sicuro e rispettare le norme come qualsiasi altro operatore commerciale. Una soluzione sarebbe a portata di mano, ovvero l’estensione delle norme vigenti per gli editori anche ai giganti digitali, anche per stimolarli ad effettuare puntuali verifiche sul materiale che viene veicolato sulle loro piattaforme, spesso di origine illegale per violazione dei contenuti dei copyright o la diffusione di notizie false a solo fine di generare interazioni con l’utente. Bisogna introdurre la responsabilità legale di chi pubblica, riponendo maggiore enfasi sulla responsabilità degli operatori di piattaforme social nel garantire che i contenuti diffusi non siano nocivi e siano sempre idonei per il pubblico, specie quello più giovane.
Per rimanere sempre aggiornati con le ultime notizie de “ViViItalia Tv”, iscrivetevi al canale Telegram per non perdere i lanci e consultate i canali social della Testata.
Ti piace “Lo Schiacciasassi”? Iscriviti qui sul canale YouTube di “ViViItalia Tv”
Ti piace “ViViItalia Tv”? Sostienici!
YouTube
Telegram
https://www.linkedin.com/company/viviitaliatv
https://www.facebook.com/viviitaliatvwebtv
© Riproduzione Riservata

