Il tuo sistema AI si inventa le cose? 4 modi per farlo rispondere onestamente

L'AI generativa a volte fornisce informazioni errate, note come "allucinazioni". Ecco come proteggere la tua attività e i tuoi clienti.
I chatbot di AI generativa stanno cambiando il mondo aziendale. Ma hanno un problema: spesso forniscono informazioni imprecise presentandole come se fossero corrette. Si tratta delle cosiddette “allucinazioni”, errori che si verificano con un’incidenza fino al 20%.
“Sappiamo che [l’attuale GenAI] tende a non fornire risposte sempre accurate, ma lo fa con un’incredibile sicurezza”, afferma Kathy Baxter, Principal Architect of Responsible AI di Salesforce. “Quindi può essere difficile capire se ci si può fidare delle risposte fornite dall’intelligenza artificiale generativa”.
La comunità informatica talvolta chiama queste imprecisioni anche confabulazioni. Il motivo? Perché in ambito psicologico la confabulazione avviene quando una persona sostituisce un vuoto nella memoria con una storia falsa e si ritiene che il concetto sia una metafora più precisa per indicare la predisposizione dell’AI a generare risposte erronee. Qualunque termine si scelga, chi utilizza l’AI sul lavoro deve conoscerne i limiti e adottare una strategia per mitigarli.
La grande tendenza
L’AI generativa e i modelli linguistici di grandi dimensioni (LLM) stanno suscitando entusiasmo, e forse anche un po’ di timore, soprattutto quando trovano applicazione in ambito lavorativo. E a ragione. I LLM, solitamente sotto forma di chatbot, possono aiutare a scrivere e-mail e report di marketing migliori, preparare proiezioni di vendita e creare risposte rapide per l’assistenza clienti, tra le molte implementazioni possibili.
Nei contesti professionali, tuttavia, le allucinazioni dell’AI possono portare ad analisi inaccurate, basarsi su pregiudizi impliciti e diffondere errori che minano la fiducia, soprattutto quando arrivano direttamente a dipendenti e clienti.
“È un problema di fiducia”, spiega Claire Cheng, Senior Director Data science and engineering di Salesforce. “Vogliamo che l’intelligenza artificiale aiuti le aziende, non che fornisca suggerimenti, consigli o azioni senza fondamento che potrebbero avere un impatto negativo sulle attività commerciali”.
Un fenomeno complesso
Alcuni esperti del settore vedono le allucinazioni in modo più positivo. Sam Altman, CEO di OpenAI, la società creatrice di ChatGPT, ha affermato dialogando con il CEO di Salesforce Marc Benioff che la capacità di produrre allucinazioni evidenzia come l’AI sappia innovare.
“Il fatto che i sistemi di intelligenza artificiale siano in grado di elaborare nuove idee e di essere creativi dimostra quanto sono potenti”, spiega Altman. “Se lo si desidera, si può chiedere al sistema di essere creativo o di limitarsi ai fatti, ma se le istruzioni specificano di non dire nulla di cui non è sicuro al 100%, il modello esegue, ma si perde quella magia che piace tanto alle persone.”
Per adesso sembra che non possiamo risolvere del tutto il problema delle allucinazioni dell’AI generativa senza eliminare anche la sua “componente magica”. (Anzi, alcuni leader del settore prevedono che le allucinazioni non scompariranno mai.) Quindi cosa possono fare le aziende che vogliono usare queste tecnologie in modo consapevole? Se desideri integrare i LLM al tuo lavoro quotidiano, ecco quattro modi per mitigare le allucinazioni dell’AI generativa.
1. Utilizza un LLM affidabile per ridurre le allucinazioni dell’AI
Per cominciare, assicurati che le tue piattaforme di intelligenza artificiale siano basate su un LLM affidabile. In altre parole, il tuo modello deve fornire un ambiente dati il più possibile privo di bias e di contenuti “tossici”.
Un LLM generalista come ChatGPT può essere utile per attività meno sensibili, come raccogliere idee per articoli o redigere un’e-mail generica, ma qualsiasi informazione inserita in questi sistemi non è necessariamente protetta.
“Molte persone stanno iniziando a prendere in considerazione modelli specifici per determinati ambiti invece di utilizzare LLM generici”, commenta Cheng. “Conviene cercare fonti attendibili piuttosto che affidarsi a una risposta fornita dal modello. Non aspettarti che l’LLM sia una fonte di verità perché non è, ad esempio, la tua knowledge base.”
Quando recuperi informazioni dalla tua knowledge base, avrai a portata di mano risposte e informazioni pertinenti in modo più efficiente. Ci sarà anche meno rischio che il sistema AI faccia supposizioni quando non conosce una risposta.
“I business leader devono chiedersi: quali sono le fonti di verità nella mia organizzazione?” spiega Khoa Le, Vice President Product management presso Salesforce. “Potrebbero essere informazioni sui clienti o sui prodotti. Potrebbe essere la knowledge base ospitata in Salesforce o altrove. Sapere dove trovare queste fonti di verità e mantenerle aggiornate con una buona gestione sarà fondamentale.”
Scopri Agentforce
Agentforce offre un supporto sempre attivo al personale o alla clientela. Scopri oggi stesso come Agentforce può aiutare la tua azienda.
2. Scrivi prompt più specifici
Per avere buoni risultati dall’AI generativa si inizia anche con un buon prompt. Puoi imparare a scrivere prompt migliori seguendo alcuni semplici consigli. Evita, ad esempio, domande chiuse che portano a risposte sì/no e limitano la capacità dell’AI di fornire informazioni più articolate. Inoltre, poni domande di approfondimento (“follow-up”) per stimolare l’LLM a fornire risposte più specifiche o dettagliate.
Ti consigliamo inoltre di fornire quante più informazioni di contesto possibile, così da ottenere la risposta migliore dallo strumento. Come guida, dai un’occhiata al prompt riportato di seguito, prima e dopo aver aggiunto dettagli specifici.
- Prima: Scrivi una campagna marketing per delle sneaker.
- Dopo: Scrivi una campagna marketing per un nuovo negozio online di sneaker chiamato Shoe Dazzle che vende a donne di età compresa tra i 30 e i 45 anni. Specifica che le scarpe sono comode e colorate. Le scarpe hanno prezzi che vanno da 75 $ a 95 $ e possono essere indossate per varie attività come la camminata veloce, l’allenamento in palestra e la preparazione di una maratona.
Hai bisogno di aiuto con la tua strategia di AI generativa?
Che tu stia muovendo i primi passi nel campo dell’AI o che tu sia già impegnato in attività di innovazione, questa guida è la tua road map per realizzare un programma affidabile che combini dati, AI e CRM. L’obiettivo? Aiutare i team a concentrarsi su attività di alto valore e a costruire relazioni più solide con i clienti.
3. Indica all’LLM di dare risposte sincere
Un altro consiglio che può avere un’influenza determinante è quello di indicare esplicitamente nel prompt che il sistema deve dare risposte oneste.
“Se poni una domanda a un agente virtuale, nel prompt puoi dire: Se non conosci la risposta, di’ semplicemente che non lo sai”, spiega Cheng.
Supponiamo, ad esempio, che tu voglia creare un report che metta a confronto i dati di vendita di cinque grandi aziende farmaceutiche. Queste informazioni probabilmente proverranno da report annuali pubblici, ma è possibile che l’LLM non sia in grado di accedere ai dati più attuali. Alla fine del prompt, aggiungi “Non rispondere se non riesci a trovare i dati del 2023”. In questo modo l’LLM sa di non dover inventare nulla se i dati non sono disponibili.
È anche possibile chiedere all’AI di mostrare come ha lavorato o di spiegare come è giunta alla risposta fornita attraverso tecniche quali prompting chain of thought (catena di ragionamento) o tree of thought (albero del ragionamento). Secondo le ricerche, queste tecniche non solo contribuiscono alla trasparenza e alla fiducia, ma aumentano anche la capacità dell’AI di generare la risposta corretta.
4. Riduci l’impatto sui clienti
Secondo Le, vi sono alcuni aspetti da considerare per proteggere i dati e i rapporti commerciali dei clienti.
- Sii trasparente. Se utilizzi un chatbot o un agente virtuale basato sull’AI generativa, non presentare l’interfaccia come se i clienti stessero parlando con una persona. Invece, specifica chiaramente sul tuo sito che utilizzi funzionalità AI. Continua Le: “È davvero importante chiarire da dove provengono le informazioni e su quali dati state addestrando il sistema”. “Non cercare di ingannare il cliente.”
- Rispetta le leggi e le normative locali. In alcune zone degli Stati Uniti, ad esempio, è richiesto il consenso esplicito a questa tecnologia da parte dell’utente finale; anche se nel tuo caso non è obbligatorio, potresti comunque offrire la possibilità di opt-in.
- Tutelati sotto il profilo legale. La tecnologia della GenAI è nuova e in rapida evoluzione. Coinvolgi i tuoi consulenti legali per comprendere i temi più attuali e rispettare le normative locali.
- Assicurati che siano in atto misure di sicurezza. Quando selezioni un fornitore di LLM, assicurati che disponga di misure di sicurezza quali il rilevamento di tossicità e bias, il mascheramento dei dati sensibili e difese contro attacchi di tipo prompt injection, come Einstein Trust Layer di Salesforce.
Le allucinazioni dell’AI generativa sono motivo di preoccupazione, ma non necessariamente un ostacolo insormontabile. Progetta e lavora con questa nuova tecnologia, ma tieni gli occhi aperti per potenziali errori. Dopo aver verificato le fonti e messo in discussione il lavoro svolto, potrai affrontare le tue attività con maggiore sicurezza.
Inizia subito a usare un LLM
La piattaforma Salesforce ti offre gli strumenti di cui hai bisogno per costruire facilmente applicazioni basate sugli LLM. Lavora con un modello di proprio sviluppo, personalizza un modello open-source oppure utilizza un modello esistente tramite API.






