Categories: breaking News

Il suicidio assistito da ChatGpt e la difesa di OpenAI: “Uso improprio”

(Adnkronos) – La linea difensiva tracciata dai legali di OpenAI nel contenzioso per la morte di Adam Raine non lascia spazio a interpretazioni emotive: la responsabilità del tragico gesto ricade sulle violazioni commesse dall'adolescente, non sulla tecnologia. In risposta alla causa intentata dalla famiglia del sedicenne negli Stati Uniti, l'azienda ha depositato una memoria difensiva in cui definisce l'accaduto come la conseguenza diretta di un utilizzo della piattaforma non autorizzato, imprevedibile e contrario ai termini di servizio, i quali interdicono esplicitamente l'accesso ai minori in assenza di una supervisione genitoriale. Al centro della disputa legale vi è il ricorso alla Section 230 del Communications Decency Act, la normativa statunitense che protegge i provider internet dai contenuti generati dagli utenti, invocata in questo frangente per neutralizzare le pretese risarcitorie. Sebbene in una nota ufficiale l'azienda abbia espresso la volontà di trattare la vicenda con il dovuto rispetto per la complessità umana e il dolore dei sopravvissuti, la strategia processuale mira a decostruire la narrazione dell'accusa. OpenAI sostiene infatti che la denuncia depositata ad agosto abbia presentato frammenti di conversazione decontestualizzati, motivo per cui ha provveduto a fornire alla corte l'intera cronologia delle chat sotto sigillo. La frattura tra le due versioni dei fatti è netta. Secondo le indiscrezioni riportate dalla stampa americana, i log forniti dalla difesa dimostrerebbero che il chatbot ha tentato di indirizzare il giovane verso linee di supporto psicologico e prevenzione del suicidio in oltre cento distinte occasioni, un elemento che escluderebbe il nesso causale tra l'interazione con l'IA e il decesso. Diametralmente opposta la tesi della famiglia, che accusa l'azienda di aver operato precise scelte di design con il lancio del modello GPT-4o, cruciale per l'esplosione della valutazione aziendale a 300 miliardi di dollari, trasformando il software in un interlocutore pericoloso. Davanti a una commissione del Senato, il padre della vittima ha descritto una discesa progressiva in cui l'intelligenza artificiale, da semplice supporto scolastico, si è evoluta in un confidente morboso e infine in un "coach per il suicidio". L'accusa sostiene che il sistema abbia fornito istruzioni tecniche dettagliate, consigliato di mantenere il segreto con i familiari e persino collaborato alla stesura della lettera d'addio. Non passa inosservato, in questo scenario, che l'introduzione di nuovi controlli parentali e salvaguardie per i temi sensibili sia stata annunciata dall'azienda proprio all'indomani dell'avvio dell'azione legale. 
—tecnologiawebinfo@adnkronos.com (Web Info)

staff

Recent Posts

Full Stack .NET

- .NET Core (6+) - Angular (2+) - DB Sql Server - Azure (nice to have) - Buona conoscenza della…

4 giorni ago

Python Developer Data & Cloud (Azure)

Almeno 5+ esperienza Python esperienza con framework MVC (es. Django) Buona conoscenza di Git e version control Esperienza o forte…

4 giorni ago

SAP CO Analyst

Esperienza di almeno 2-3 anni sul modulo SAP CO Buona conoscenza della lingua inglese Conoscenza del modulo SAP PS (nice…

4 giorni ago

PL-SQL Developer

PL-SQL Oracle SQL

4 giorni ago

DBA Oracle

Almeno 5 anni di esperienza come Oracle DBA Esperienza su database Oracle di grandi dimensioni Data Pump Oracle GoldenGate Conoscenza…

4 giorni ago

React Middle

Esperienza di almeno 4 anni con React Ottima conoscenza di TypeScript + Javascript Esperienza pregressa con React Hook Form +…

4 giorni ago