La criminalità informatica rappresenta una minaccia non solo per la sicurezza dei singoli utenti ma, altresì, per l'integrità e la reputazione delle piattaforme digitali, fisiologicamente idonee, stante la velocità con cui si diffondono le informazioni, a facilitare la propagazione di contenuti dannosi e illegali.
Ciò pone in evidenza l'importanza di discipline incentrate sulla responsabilità delle piattaforme nella gestione dei contenuti e dei comportamenti sulla rete nonché, sotto altro profilo, una adeguata e profonda riflessione sui rischi che la perpetrazione di un cybercrime può arrecare alla piattaforma stessa.
La materia è oggetto di costante dibattito in sede eurounitaria, dove si è assistito all’introduzione di normative orientate a regolamentare il settore per garantire un ambiente cibernetico più trasparente, sicuro e idoneo a proteggere i diritti fondamentali degli utenti e a disciplinare le responsabilità che i fornitori di piattaforme hanno nel monitoraggio e nella gestione dei contenuti condivisi sui loro servizi. Tra queste, va fatta – solo – menzione della direttiva n. 2000/31/CE (c.d. direttiva sul commercio elettronico), recepita in Italia con il d. lgs. 9.4.2003, n. 70, che ha fornito le basi per il commercio online e ha stabilito regole per la responsabilità degli intermediari, nonché, da ultimo, del regolamento n. 2022/2065/UE (c.d. Digital Services Act, D.S.A.), che integra la predetta direttiva e introduce un regime più rigoroso per i prestatori di servizi di memorizzazione di informazioni, comprese le piattaforme online.
Con riferimento alla responsabilità delle piattaforme per i contenuti illegali “ospitati” al loro interno, si rileva che la normativa europea ha previsto per lungo tempo che le stesse, pur essendo tenute, una volta notificate le violazioni, a rimuovere rapidamente il contenuto illecito, non erano in linea di principio responsabili per quanto pubblicato dagli utenti, salvo l’ipotesi in cui avessero partecipato attivamente alla relativa creazione o alla modifica e non intervenissero sul contenuto o sullo svolgimento delle stesse operazioni. Ed invero, l’art. 15 della direttiva sul commercio elettronico, sotto la rubrica “Assenza dell'obbligo generale di sorveglianza”, escludeva un obbligo di monitoraggio preventivo e generalizzato, come pure un <<obbligo generale di ricercare attivamente fatti o circostanze che indichino la presenza di attività illecite>>.
Si è dapprima rinunciato, dunque, a prevedere la sussistenza di poteri-doveri di sorveglianza in capo al prestatore di servizi informatici, tenuto a rimuovere i contenuti illeciti e a informare le autorità competenti soltanto in occasione della – incidentale – conoscenza di presunte attività o informazioni illecite, così conseguendone l’impossibilità, a partire da tali obblighi, di configurare, tra le altre cose, un meccanismo imputativo per omesso impedimento di reati altrui.
Tale approccio pare essere parzialmente mutato con l’introduzione del Digital Services Act che, pur ponendosi sostanzialmente in continuità con la pregressa disciplina in relazione alla responsabilità del provider, ha introdotto novità sul terreno degli obblighi di due diligence posti in capo agli intermediari di servizi digitali.
Il regolamento, dunque, interviene adesso sulle piattaforme online – con particolarmente rigore per le piattaforme di grandi dimensioni, c.d. VLOP (Very Large Online Platforms), individuate come quelle che prestano i loro servizi a un numero medio mensile di destinatari attivi del servizio nell’Unione pari o superiore a 45 milioni – introducendo un regime di responsabilità diretta e obbligando le stesse a implementare misure proattive per identificare e rimuovere contenuti illegali, prevedendo una sorta di obbligo di due diligence che le piattaforme devono effettuare e rendicontare davanti alla Commissione nonché, in caso di violazione, sanzioni particolarmente severe.
Ad esempio, per quanto attiene alle azioni necessarie per il contrasto ai contenuti e alle attività illecite sulle piattaforme online, il Digital Services Act prevede l’obbligo di rimuovere immediatamente i contenuti illegali o disabilitare l’accesso agli stessi non appena ne vengano a conoscenza; dare seguito immediato a eventuali ordini delle Autorità giudiziarie o amministrative nazionali competenti per rimuovere uno o più specifici contenuti illegali e informare senza indebito ritardo l’autorità dell’azione compiuta; dare seguito immediato a eventuali ordini di fornire informazioni specifiche su uno o più singoli destinatari del servizi.
Concludendo, le disposizioni del Digital Services Act, unitamente alle più recenti normative in tema di cybersecurity, segnano un passo in avanti significativo in quanto mirano, da un lato, a garantire la sicurezza degli utenti e, dall’altro, a responsabilizzare le piattaforme nel monitoraggio e nella gestione dei contenuti illeciti, imponendo loro obblighi di due diligence e l’adozione effettiva di misure di sicurezza proattive e adeguate a mitigare i rischi derivanti dalla criminalità informatica; inoltre, rispetto al passato, è attribuita rilevanza dirimente alla cooperazione delle stesse piattaforme con le Autorità in presenza di attività riconducibili al tessuto criminoso – come dimostra il “caso Telegram”, che ha portato la piattaforma ad aggiornare la sua politica sulla privacy con annessa promessa di consegnare alle autorità quanto utile per identificare i sospettati di reato – così da pervenire all’implementazione di un ambiente online più sicuro sia per gli utenti che, appunto, per le stesse piattaforme digitali.