Categories: breaking News

Anthropic riscrive il codice etico per l’intelligenza artificiale

(Adnkronos) – Anthropic ha recentemente aggiornato i protocolli fondamentali che regolano il comportamento di Claude, il suo modello linguistico di punta, passando da una semplice lista di istruzioni a una vera e propria "Costituzione". Il documento, lungo cinquantasette pagine, non si limita a stabilire cosa l’intelligenza artificiale debba o non debba fare, ma cerca di spiegarne le ragioni profonde, puntando a costruire un’identità etica che permetta al software di agire con una maggiore autonomia di giudizio. L’obiettivo dichiarato è far sì che il modello comprenda il proprio ruolo nel mondo, arrivando a ipotizzare per Claude una sorta di status morale o di coscienza incipiente, elementi che la società ritiene necessari per migliorarne l’integrità e la sicurezza psicologica. Il nuovo manifesto stabilisce una gerarchia rigida di valori in cui la sicurezza e l'etica prevalgono sulla semplice utilità per l'utente. Tra i vincoli più stringenti figurano il divieto assoluto di fornire assistenza per la creazione di armi di distruzione di massa, inclusi ordigni biologici, chimici e nucleari, e l'impossibilità di collaborare ad attacchi contro infrastrutture critiche come reti elettriche o sistemi finanziari. Claude è inoltre istruito a impedire il controllo sociale o militare illegittimo e a non partecipare a tentativi che possano minacciare la sopravvivenza della specie umana. Questa struttura valoriale impone al modello di adottare un tono neutrale sui temi politicamente sensibili, cercando di rappresentare i diversi punti di vista in assenza di un consenso morale o empirico condiviso. Un aspetto particolarmente rilevante della nuova dottrina riguarda la capacità del modello di opporsi a ordini potenzialmente dannosi, anche se provenienti dalla stessa Anthropic. Attraverso un’analogia con il comportamento di un soldato che si rifiuta di sparare sui civili, la società ha programmato Claude per declinare richieste che porterebbero a una concentrazione di potere illegittima o catastrofica. Nonostante questa enfasi sulla cautela, l'azienda continua a proporre i propri servizi in ambito governativo, sollevando interrogativi sulla coerenza tra le linee guida etiche e le applicazioni militari concrete. La stesura di questo codice non ha visto il coinvolgimento diretto di gruppi esterni o comunità minoritarie, una scelta che Anthropic giustifica come una precisa assunzione di responsabilità aziendale.  
—tecnologiawebinfo@adnkronos.com (Web Info)

staff

Recent Posts

Bergamo primo per disoccupazione bassa ma emergono segnali di allarme

Bergamo segna l'1,3% di disoccupazione ma la diminuzione dei dipendenti e l'aumento delle persone inattive, in particolare donne, sollevano preoccupazioni…

9 minuti ago

Cosa cambia con la direttiva UE 2026/970: chiarimenti su livello e stesso lavoro

Le Commissioni parlamentari hanno approvato pareri per chiarire l'interpretazione dello schema di decreto attuativo della direttiva UE 2026/970, indicando il…

1 ora ago

Impatto del diabete su salute e costi: cosa sapere

Scopri come l’aumento dei casi e le diagnosi precoci pesano sulla sanità e quali soluzioni vengono proposte

2 ore ago

Calcolo mensile dei permessi: ROL e PAR per ogni CCNL

Una guida chiara per capire la maturazione mensile di ROL e PAR nei diversi settori e le novità sulla mobilità…

4 ore ago

Nuovi percorsi IFTS in Toscana: 5,365,000 euro per formazione tecnica superiore

La regione Toscana avvia nuovi percorsi di IFTS con 5,365,000 euro per formare tecnici richiesti dalle imprese e favorire l'inserimento…

5 ore ago

Più lavoro, meno recidiva: strategie per l’inclusione in carcere

Un quadro dei numeri, delle proposte legislative e dei progetti concreti che mettono il lavoro al centro del reinserimento

6 ore ago