(Adnkronos) – Anthropic ha recentemente aggiornato i protocolli fondamentali che regolano il comportamento di Claude, il suo modello linguistico di punta, passando da una semplice lista di istruzioni a una vera e propria "Costituzione". Il documento, lungo cinquantasette pagine, non si limita a stabilire cosa l’intelligenza artificiale debba o non debba fare, ma cerca di spiegarne le ragioni profonde, puntando a costruire un’identità etica che permetta al software di agire con una maggiore autonomia di giudizio. L’obiettivo dichiarato è far sì che il modello comprenda il proprio ruolo nel mondo, arrivando a ipotizzare per Claude una sorta di status morale o di coscienza incipiente, elementi che la società ritiene necessari per migliorarne l’integrità e la sicurezza psicologica. Il nuovo manifesto stabilisce una gerarchia rigida di valori in cui la sicurezza e l'etica prevalgono sulla semplice utilità per l'utente. Tra i vincoli più stringenti figurano il divieto assoluto di fornire assistenza per la creazione di armi di distruzione di massa, inclusi ordigni biologici, chimici e nucleari, e l'impossibilità di collaborare ad attacchi contro infrastrutture critiche come reti elettriche o sistemi finanziari. Claude è inoltre istruito a impedire il controllo sociale o militare illegittimo e a non partecipare a tentativi che possano minacciare la sopravvivenza della specie umana. Questa struttura valoriale impone al modello di adottare un tono neutrale sui temi politicamente sensibili, cercando di rappresentare i diversi punti di vista in assenza di un consenso morale o empirico condiviso. Un aspetto particolarmente rilevante della nuova dottrina riguarda la capacità del modello di opporsi a ordini potenzialmente dannosi, anche se provenienti dalla stessa Anthropic. Attraverso un’analogia con il comportamento di un soldato che si rifiuta di sparare sui civili, la società ha programmato Claude per declinare richieste che porterebbero a una concentrazione di potere illegittima o catastrofica. Nonostante questa enfasi sulla cautela, l'azienda continua a proporre i propri servizi in ambito governativo, sollevando interrogativi sulla coerenza tra le linee guida etiche e le applicazioni militari concrete. La stesura di questo codice non ha visto il coinvolgimento diretto di gruppi esterni o comunità minoritarie, una scelta che Anthropic giustifica come una precisa assunzione di responsabilità aziendale.
—tecnologiawebinfo@adnkronos.com (Web Info)
Bergamo segna l'1,3% di disoccupazione ma la diminuzione dei dipendenti e l'aumento delle persone inattive, in particolare donne, sollevano preoccupazioni…
Le Commissioni parlamentari hanno approvato pareri per chiarire l'interpretazione dello schema di decreto attuativo della direttiva UE 2026/970, indicando il…
Scopri come l’aumento dei casi e le diagnosi precoci pesano sulla sanità e quali soluzioni vengono proposte
Una guida chiara per capire la maturazione mensile di ROL e PAR nei diversi settori e le novità sulla mobilità…
La regione Toscana avvia nuovi percorsi di IFTS con 5,365,000 euro per formare tecnici richiesti dalle imprese e favorire l'inserimento…
Un quadro dei numeri, delle proposte legislative e dei progetti concreti che mettono il lavoro al centro del reinserimento