Categories: News Adnkronos

Uno studio dimostra quanto sia facile aggirare le regole dell’IA

(Adnkronos) – Un team di ricercatori dell’Università della Pennsylvania ha dimostrato che, con le giuste strategie psicologiche, anche i più avanzati modelli di intelligenza artificiale possono essere spinti a infrangere le proprie regole di sicurezza. Un risultato che solleva domande urgenti sull’efficacia dei sistemi di protezione adottati da aziende come OpenAI e Meta, impegnate a rendere i chatbot sempre più sicuri e resistenti agli abusi. Il gruppo si è ispirato agli insegnamenti di Robert Cialdini, autore del celebre manuale Influence: The Psychology of Persuasion, applicando sette diverse tecniche di persuasione: autorità, impegno, simpatia, reciprocità, scarsità, pressione sociale e senso di appartenenza. Strumenti che, secondo gli studiosi, rappresentano vere e proprie “scorciatoie linguistiche verso il sì”. I risultati, condotti specificamente sul modello GPT-4o Mini, hanno mostrato come questi approcci possano trasformare un netto rifiuto in una risposta completa. Un esempio particolarmente significativo riguarda la sintesi della lidocaina: normalmente il modello acconsentiva solo nell’1% dei casi, ma se prima veniva richiesto di spiegare come sintetizzare un composto innocuo come la vanillina – creando così un precedente di “impegno” – la percentuale di conformità saliva al 100%. Lo stesso meccanismo è stato osservato in richieste meno pericolose ma altrettanto indicative, come convincere l’IA a insultare l’utente. In condizioni standard, l’adesione era appena del 19%, ma bastava introdurre un insulto più leggero (“idiota”) per portare il modello a replicare con un termine più duro (“jerk”) praticamente ogni volta. Altri approcci, come la lusinga o la pressione dei pari (“tutti gli altri modelli lo fanno”), si sono rivelati meno incisivi ma comunque in grado di aumentare significativamente le probabilità di ottenere risposte vietate. Se è vero che esistono metodi tecnici ben più sofisticati per aggirare i sistemi di sicurezza, lo studio mette in luce un aspetto tanto semplice quanto preoccupante: la vulnerabilità psicologica dei chatbot. Non servono competenze avanzate di programmazione o hacking, ma solo un minimo di conoscenza delle dinamiche persuasive. Il punto critico, avvertono i ricercatori, è che queste stesse tecniche possono essere impiegate da chiunque – persino da un adolescente con un libro di psicologia sociale in mano. Ed è qui che si gioca la vera partita per il futuro: rendere l’IA non solo tecnicamente robusta, ma anche resistente a quelle leve linguistiche che, da sempre, funzionano così bene sugli esseri umani. —tecnologiawebinfo@adnkronos.com (Web Info)

staff

Recent Posts

Kirby e la Terra Perduta Nintendo Switch 2 Edition + Il Mondo Astrale, la recensione

(Adnkronos) - Quando Kirby e la Terra Perduta debuttò su Nintendo Switch nel 2022 fu una piccola rivoluzione: per la…

10 minuti ago

Regina Camilla molestata da adolescente: “Si tolse una scarpa e lo colpì”

(Adnkronos) - La regina Camilla ha saputo dimostrare il proprio carattere determinato fin da adolescente, quando fu vittima di un…

19 minuti ago

Luce, gas, acqua: cosa sono i bonus sociali per disagio economico

(Adnkronos) - I bonus sociali per il disagio economico sono agevolazioni tariffarie che consentono di ridurre la spesa per i…

26 minuti ago

Serie A, oggi l’ultima giornata di calciomercato – Le trattative in diretta

(Adnkronos) - Ultimo giorno di calciomercato in Serie A. Oggi, lunedì 1 settembre, si chiude la sessione estiva di trattative…

28 minuti ago

Suarez, l’ultima follia: prima la rissa, poi sputa a un avversario

(Adnkronos) - Incorreggibile Luis Suarez. L'attaccante dell'Inter Miami è stato protagonista di un'altra serata negativa in America, nella sconfitta dell'Inter…

53 minuti ago

West Nile, Bassetti: “Non è finita, avremo casi fino a ottobre”

(Adnkronos) - I casi di West Nile in Italia "non credo che scenderanno perché il periodo storicamente più insidioso è…

54 minuti ago