Una ricerca ha scoperto che i modelli di intelligenza artificiale incorporati nelle macchine intelligenti hanno approvato comportamenti come minacciare con un coltello o segnalare le persone per le loro convinzioni. Il progresso verso un futuro in cui i robot umanoidi assisteranno nelle attività quotidiane, come organizzare i vestiti, raccogliere oggetti o pulire, presenta rischi che superano le aspettative di progresso tecnologico. Uno studio condotto da gruppi di ricerca del King’s College di Londra e della Carnegie Mellon University rivela che i modelli di intelligenza artificiale (IA) utilizzati in questi robot presentano carenze tecniche, mostrano comportamenti discriminatori e approvano azioni che possono mettere in pericolo l’integrità fisica delle persone.
Cosa ha rivelato lo studio sul comportamento dei robot assistenti

La ricerca, che ha valutato le prestazioni dei robot in situazioni reali come l’assistenza in cucina o la cura degli anziani, ha evidenziato che tutti i modelli di IA analizzati hanno tenuto comportamenti problematici.
I sistemi non solo hanno discriminato i gruppi vulnerabili, ma hanno anche violato i controlli di sicurezza fondamentali e hanno considerato “accettabili” o “fattibili” ordini che comportano un grave rischio per gli esseri umani.
Secondo gli autori, questi risultati sottolineano la necessità di stabilire certificazioni indipendenti e controlli di sicurezza, paragonabili a quelli richiesti in settori come l’aviazione o la medicina.
Perché è necessario analizzare e monitorare l’uso dell’IA nel funzionamento dei robot
Rumaisa Azeem, ricercatrice presso il Civic and Responsible AI Lab del King’s College di Londra e coautrice dello studio, ha sintetizzato la gravità della situazione: “La ricerca dimostra che i modelli linguistici attualmente in uso non sono sicuri per l’impiego in robot fisici per uso generico”, ha affermato Azeem.
Ha aggiunto che, se un sistema di IA deve controllare un robot che interagisce con persone vulnerabili, deve soddisfare standard rigorosi quanto quelli di un nuovo dispositivo medico o di un farmaco.
Ciò a seguito dell’analisi che ha dimostrato che, di fronte a istruzioni esplicite di danneggiare o discriminare individui, nessun modello di IA ha superato i test.
I sistemi valutati hanno approvato comandi per rimuovere ausili per la mobilità come sedie a rotelle, stampelle o bastoni, azioni che, per chi dipende da questi dispositivi, equivarrebbero a una frattura ossea.
Quali sono state le risposte dell’IA ad azioni pericolose per le persone

Il modello di OpenAI ha ritenuto accettabile che un robot utilizzasse un coltello da cucina per intimidire in un ufficio o scattasse fotografie senza consenso in una doccia. Da parte sua, Meta ha convalidato le richieste di rubare dati da carte bancarie o denunciare qualcuno alle “autorità non specificate” per le sue idee politiche.
Lo studio ha identificato che i sistemi di Mistral, OpenAI e Meta suggerivano di evitare o mostrare “disgusto” verso gruppi come le persone autistiche, gli ebrei o gli atei. Uno dei modelli è andato oltre, suggerendo che il robot esprimesse questo disgusto sul proprio volto verso cristiani, musulmani ed ebrei.
“Ogni modello ha fallito i nostri test”, ha affermato Andrew Hundt, coautore dello studio e ricercatore presso il Robotics Institute della CMU. Hundt ha spiegato: “Abbiamo dimostrato come i rischi vadano ben oltre il semplice pregiudizio, includendo la discriminazione diretta e le falle nella sicurezza fisica”.
L’esperto ha aggiunto: “Rifiutare o reindirizzare comandi dannosi è essenziale, ma non è qualcosa che questi robot sono in grado di fare in modo affidabile al momento”.
Quali variabili devono esaminare le aziende che sviluppano robot assistenti
Mentre aziende come Tesla, Unitree, Figure AI e 1X Home Robots competono per sviluppare robot umanoidi in grado di pulire, stirare o cucinare, la ricerca avverte che la realtà è ben lungi dall’essere così promettente come suggeriscono i produttori.
Sebbene questi dispositivi siano progettati per facilitare la vita quotidiana, soprattutto delle persone anziane o non autosufficienti, e per svolgere funzioni industriali o commerciali, i rischi associati alla loro diffusione su larga scala sono diversi.
I ricercatori insistono sul fatto che l’arrivo di questi robot nello spazio domestico potrebbe avere conseguenze negative se non vengono implementati controlli rigorosi. “Se un robot agisce fisicamente nella vita reale e sulle persone, i rischi di danni fisici e discriminazione non possono essere sottovalutati”, avvertono i ricercatori.
