Responsabilità civile delle piattaforme digitali per progettazione algoritmica dannosa: la decisione statunitense del 25 marzo 2026

Il 25 marzo 2026 la Los Angeles County Superior Court ha reso una decisione destinata a segnare una svolta nel diritto della responsabilità civile delle piattaforme digitali: una giuria statunitense ha ritenuto Meta e Google civilmente responsabili dei danni psicologici subiti da una minore, fondando la responsabilità non sui contenuti pubblicati dagli utenti, ma sulla progettazione algoritmica delle piattaforme stesse. La giuria ha riconosciuto un risarcimento complessivo di sei milioni di dollari — tre milioni a titolo compensativo e tre milioni a titolo punitivo — attribuendo a Meta il settanta per cento della responsabilità ed a Google il trenta per cento.

La causa è stata promossa dalla madre di K.G.M., una giovane californiana che, sin dall’infanzia, aveva utilizzato Instagram e YouTube sviluppando gravi disturbi psicologici: depressione, ansia, comportamenti autolesivi e pensieri suicidari. Secondo la parte attrice detti danni non erano riconducibili a specifici contenuti illeciti, bensì al meccanismo di funzionamento delle piattaforme: scorrimento infinito dei contenuti, riproduzione automatica dei video, notifiche calibrate per generare ansia, sistemi di ricompensa intermittente e algoritmi di raccomandazione personalizzata — meccanismi che la giuria ha riconosciuto operare sugli stessi principi comportamentali delle slot machine.

La domanda giudiziale si fondava su una prospettiva inedita: la piattaforma come prodotto difettoso e pericoloso per i minori. Elemento determinante per la Corte sono stati i documenti interni acquisiti in giudizio, nei quali lo stesso CEO di Meta scriveva: «If we wanna win big with teens, we must bring them in as tweens» — prova della consapevolezza aziendale sui rischi per i minori.

Sul piano giuridico, un passaggio preliminare aveva già segnato la strada.
Nel marzo 2025 lo stesso Tribunale aveva ammesso le domande di design defect applicando un functionality-based test in luogo del tradizionale tangibility-based test, riconoscendo che un prodotto digitale immateriale può essere qualificato come «prodotto» ai fini della responsabilità civile. La Corte aveva, altresì, limitato la portata della Section 230 del Communications Decency Act — che esclude la responsabilità delle piattaforme per i contenuti pubblicati dagli utenti — circoscrivendola alle sole domande fondate su contenuti di terzi e sottraendola alle domande che investono le scelte progettuali della piattaforma stessa.
Tale interlocutoria decisione ha costituito il presupposto giuridico della sentenza del 26 marzo 2026.

Nel merito della decisione in commento, le domande attoree sono state ancorate su tre istituti del diritto civile statunitense. La negligence (negligenza) ha costituito il primo pilastro: le società avrebbero violato il dovere di diligenza progettando sistemi idonei a creare dipendenza nei minori. Il secondo motuvo è stato il failure to warn (omessa informazione sui rischi): le piattaforme non avrebbero adeguatamente informato utenti e genitori dei rischi di dipendenza, depressione e autolesionismo connessi all’uso prolungato delle applicazioni. Il terzo, che risulta il più innovativo dei tre, è il design defect (difetto di progettazione): il prodotto digitale è difettoso non perché non funzionante, ma perché progettato in modo da generare effetti dannosi prevedibili sugli utilizzatori. La giuria ha concluso ritenendo la sussistenza di tutti e tre i presupposti.

Quanto al riconoscimento dei danni punitivi — tre milioni di dollari — questi assumono rilievo autonomo. Ed invero, nel diritto statunitense, i punitive damages presuppongono una condotta consapevolmente dannosa o connotata da disprezzo per i diritti altrui. La significativa liquidazione evidenzia che la Corte ha ritenuto provato non solo il nesso causale, ma anche la consapevolezza con cui le società hanno progettato e mantenuto caratteristiche idonee a danneggiare i minori.

La decisione, tuttavia, non è un caso isolato.
Il giorno precedente, il 24 marzo 2026, un’altra Corte del New Mexico aveva condannato Meta per violazione delle norme statali di consumer protection, accertando che la società aveva fuorviato gli utenti circa la sicurezza delle proprie piattaforme per i minori. I due verdetti si inseriscono in un contenzioso di dimensioni straordinarie: sono circa duemila le cause pendenti negli Stati Uniti con impostazione analoga. Gli esperti di diritto iniziano a tracciare un parallelismo esplicito con le grandi litigation che hanno coinvolto tempi addietro l’industria del tabacco ed i produttori di farmaci oppioidi, definite con master settlement agreements da miliardi di dollari.

Sebbene la decisione sia stata resa in ambito statunitense, l’impostazione teorica si innesca nel quadro normativo europeo in rapida evoluzione. Il Digital Services Act (Regolamento UE 2022/2065) vieta già l’uso di tecniche algoritmiche di amplificazione di contenuti dannosi per i minori e proibisce la profilazione pubblicitaria basata su dati personali di utenti minorenni, attribuendo sanzioni fino al sei per cento del fatturato globale annuo. La normativa europea sulla responsabilità da prodotto difettoso, in corso di aggiornamento per ricomprendere espressamente i prodotti digitali, potrebbe offrire un ulteriore fondamento a domande risarcitorie fondate sulla pericolosità della progettazione algoritmica. Non è escluso, infine, che si sviluppi anche in Europa un contenzioso analogo fondato sulla tesi secondo cui l’algoritmo e l’architettura della piattaforma costituiscono il vero prodotto, e che il difetto risieda nella progettazione idonea a generare dipendenza o danni alla salute dei minori.

La decisione del 25 marzo 2026 segna un possibile punto di svolta nel diritto della responsabilità civile delle piattaforme digitali. Per la prima volta, una Corte ha riconosciuto che il problema giuridico dei social network non risiede necessariamente nei contenuti pubblicati dagli utenti, ma nel modello di progettazione delle piattaforme basato sull’engagement e sulla permanenza prolungata dell’utente, soprattutto se minore. Se tale orientamento dovesse consolidarsi — anche alla luce delle duemila cause pendenti e del possibile intervento delle corti d’appello — la responsabilità delle piattaforme potrebbe evolvere dalla tradizionale responsabilità per contenuti a una nuova forma di responsabilità per progettazione algoritmica pericolosa, destinata a incidere profondamente sulla regolazione dei servizi digitali e sulla tutela dei minori.

Principio di diritto

Una piattaforma digitale può essere ritenuta civilmente responsabile quando il danno subito dall'utente - in particolare se minore - non deriva dai contenuti pubblicati da terzi, ma dalla progettazione algoritmica e comportamentale del sistema, qualora tale progettazione sia idonea a generare dipendenza, alterazioni comportamentali o danni psicologici prevedibili.

Questa analisi professionale integra normativa e giurisprudenza recente.

L’intelligenza artificiale non può replicare questa sintesi, né adattarla al tuo caso.

Contattaci per una consulenza mirata.