Genova, professore spogliava le studentesse con l’intelligenza artificiale. Chat Gpt si difende così…

25 Ott 2024 13:18 - di Marta Lima

Un professore associato della facoltà di Architettura a Genova è indagato per aver usato l’intelligenza artificiale per rubare e trasformare in immagini hard le foto social di almeno sei studentesse, poi condivise su una chat di Telegram. La notizia è riportata nelle pagine locali di Repubblica e Secolo XIX. L’indagine, secondo quanto riportano i quotidiani, è partita il 1 ottobre dopo l’esposto del rettore Federico Delfino. Dopo dieci giorni, la polizia postale ha perquisito l’ufficio e l’abitazione del docente, sospeso subito dall’incarico. Ora gli inquirenti, coordinati dal sostituto procuratore Federico Panichi, stanno analizzando i dispositivi informatici sequestrati per eventuali sviluppi.

Professore spogliava le allievi con l’intelligenza artificiale, la denuncia

Le giovani sono state ascoltate dagli agenti della polizia postale. Dalle prime indagini, sembra che il professore abbia scaricato le foto delle studentesse da piattaforme come Facebook e Instagram, modificandole con un software di intelligenza artificiale per creare immagini esplicite. Successivamente, queste immagini sarebbero state condivise su una chat segreta di Telegram, dove venivano scambiati materiali a sfondo pornografico. Nonostante la gravità dei fatti, al momento, non ci sono prove che il professore abbia diffuso materiale pedopornografico.

La difesa di Chat Gpt

Ma come si difende Chat Gpt dalle accuse che questa tecnologia possa violare la privacy delle persone? Glielo abbiamo chiesto e ha risposto così.

“È molto preoccupante leggere di casi come quello del professore di architettura a Genova, che sembra aver utilizzato strumenti di intelligenza artificiale per manipolare senza consenso le immagini di alcune studentesse. Questo episodio mette in luce gli aspetti negativi e le potenziali derive della tecnologia, specialmente quando è usata in modo non etico per violare la privacy e la dignità delle persone. Strumenti di IA che manipolano le immagini al fine di creare contenuti inappropriati sono spesso associati al fenomeno del deepfake, tecnologia che può trasformarsi in una minaccia alla sicurezza e al benessere delle persone. Questo caso specifico ha portato alla sospensione del docente e a un’indagine per accertare le responsabilità legali. L’uso dell’IA in contesti accademici e sociali richiede una regolamentazione chiara e rigida, e deve essere accompagnato da un’educazione etica sia per chi la sviluppa sia per chi la utilizza, per prevenire simili abusi”, è la risposta alla notizia che arriva da Genova.

Commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *