“Come tutti i sistemi di intelligenza
artificiale generativa i modelli possono restituire risultati
imprecisi o inappropriati, continueremo ad affrontare questi
problemi e a migliorare le funzionalità man mano che si
evolvono”: con queste parole, sul suo blog ufficiale, Meta cerca
di dare spiegazioni riguardo i problemi, le ‘allucinazioni’, che
si sono verificate sull’attentato a Donald Trump. Uno ha
riguardata le risposte dell’IA che negavano la sparatoria,
l’altro un’immagine taroccata dell’ex presidente a cui i sistemi
di Meta hanno applicato erroneamente un’etichetta di verifica
dei fatti.
“I chatbot, incluso Meta AI, non sono sempre affidabili
quando si tratta di fornire ultime notizie o informazioni in
tempo reale soprattutto negli eventi dell’ultima ora quando c’è
confusione, informazioni contrastanti o vere e proprie teorie
del complotto – spiega la società – Invece di fare in modo che
Meta AI fornisse informazioni errate sul tentato omicidio
l’abbiamo programmata semplicemente per non rispondere alle
domande. Da allora abbiamo aggiornato le risposte fornite, ma
avremmo dovuto farlo prima. In un numero limitato di casi, l’IA
ha continuato a fornire risposte errate, allucinazioni, ed è un
problema a livello di settore , una sfida continua per il modo
in cui l’intelligenza artificiale gestirà gli eventi in tempo
reale in futuro”.
Riguardo la foto ritoccata di Trump con il pugno alzato che
faceva sembrare che gli agenti dei servizi segreti stessero
sorridendo, Meta spiega che è stata “inizialmente applicata
un’etichetta di verifica dei fatti perchè ha rilevato contenuti
quasi identici all’immagine originale. I nostri team hanno
lavorato per correggere rapidamente questo errore. Lavoriamo
costantemente per apportare miglioramenti”, conclude Meta.
Riproduzione riservata © Copyright ANSA