Studente 13enne chiede all’IA come uccidere un compagno: scatta l’arresto

Tempo di lettura: ~3 min

Rimani sempre aggiornato!

Unisciti al nostro canale Telegram per ricevere notizie in tempo reale, esclusive ed aggiornamenti direttamente sul tuo smartphone.

La segnalazione non arriva da docenti o studenti, ma da un software di monitoraggio dell’intelligenza artificiale


Un episodio che riaccende il dibattito su sicurezza scolastica, intelligenza artificiale e privacy arriva dagli Stati Uniti.
Un 13enne avrebbe chiesto a ChatGPT come “uccidere un amico durante la lezione”.
La domanda, considerata estremamente allarmante, ha portato in breve tempo all’arresto del giovane, che ha poi parlato di “scherzo goliardico”.


L’episodio si è verificato alla Southwestern Middle School di DeLand e ha attirato l’attenzione dei media per un dettaglio cruciale: la segnalazione non è arrivata da una persona, ma da un’altra intelligenza artificiale.


IA contro IA: come è scattato l’allarme


A intercettare la conversazione è stato un sistema sviluppato dall’azienda statunitense Gaggle, specializzata in sicurezza digitale e prevenzione dei rischi negli ambienti scolastici.


Il software, utilizzato da numerosi istituti americani, è in grado di:


  • monitorare le attività online degli studenti
  • analizzare conversazioni con strumenti di intelligenza artificiale
  • segnalare contenuti legati a violenza, autolesionismo, bullismo o minacce

Quando viene individuato un comportamento potenzialmente pericoloso, il sistema invia una segnalazione immediata all’amministrazione scolastica, che può poi contattare le autorità competenti.


Sicurezza nelle scuole USA: perché l’attenzione è altissima


Negli Stati Uniti, il tema della prevenzione della violenza nelle scuole è particolarmente sensibile a causa di precedenti episodi di sparatorie e attentati avvenuti negli anni.
Per questo motivo, molte scuole e università adottano strumenti tecnologici avanzati per intercettare segnali di rischio prima che si trasformino in azioni concrete.


In questo caso, l’intervento tempestivo ha evitato qualsiasi conseguenza fisica, ma ha aperto una nuova riflessione sul ruolo dell’IA nella sorveglianza preventiva.


Dubbi, critiche e falsi allarmi


Nonostante la diffusione capillare, l’utilizzo di questi sistemi non è esente da critiche.
Gaggle, secondo dati diffusi dalla Associated Press, monitora le attività di quasi sei milioni di studenti in oltre 1.500 distretti scolastici.


Le principali perplessità riguardano:


  • il rischio di sorveglianza di massa
  • possibili violazioni della privacy
  • l’elevato numero di falsi positivi

Un esempio citato dall’Associated Press riguarda il distretto scolastico di Lawrence, in Kansas: su circa 1.200 segnalazioni in 10 mesi, due terzi sono state giudicate irrilevanti dai dirigenti scolastici.


Intelligenza artificiale e scuola: protezione o controllo?


Il caso del 13enne in Florida riporta al centro una domanda cruciale: fino a che punto è giusto monitorare le attività digitali degli studenti per garantire la sicurezza?


Da un lato, strumenti di questo tipo possono prevenire tragedie; dall’altro, sollevano interrogativi seri su libertà individuale, privacy e uso etico dell’intelligenza artificiale.


Un equilibrio ancora difficile da trovare, ma sempre più centrale nel dibattito su IA, educazione e sicurezza.

Rimani sempre aggiornato!

Unisciti al nostro canale Telegram per ricevere notizie in tempo reale, esclusive ed aggiornamenti direttamente sul tuo smartphone.

Scritto da Redazione

Giornalista di InfoOggi

Leggi altri articoli

Rimani sempre aggiornato!

Unisciti al nostro canale Telegram per ricevere notizie in tempo reale, esclusive ed aggiornamenti direttamente sul tuo smartphone.