banner

Blog

Apr 25, 2024

La tecnologia aziendale può riscattarsi con l’intelligenza artificiale generativa? Vishal Sikka sul fare bene l'intelligenza artificiale e sull'evitare i venditori di olio di serpente di intelligenza artificiale generativa

Nella mia precedente discussione con il Dr. Vishal Sikka, fondatore e CEO della startup di tendenza Vianai Systems, abbiamo parlato degli alti e bassi delle montagne russe dell'IA - e Sikka ne ha viste molte.

Abbiamo capito perché Sikka firmò quella lettera ampiamente fraintesa che metteva in guardia sui pericoli dell’intelligenza artificiale e sollecitava quella famigerata pausa.

Naturalmente, abbiamo parlato dei problemi dei LLM, comprese allucinazioni e spiegabilità: Tolleranza zero" per le allucinazioni - Dr. Vishal Sikka su come Vianai costruisce applicazioni AI e le emozioni contrastanti del ciclo pubblicitario dell'IA. Abbiamo spiegato come Vianai affronta questo problema in il contesto delle loro applicazioni IA di nuova generazione, come:

Ma c'è di più. Qual è il consiglio di Sikka per i clienti che valutano i fornitori di IA generativa? Dopotutto, il successo aziendale con l'intelligenza artificiale generativa è un insieme di salti completamente diversi rispetto alla sperimentazione di ChatGPT nel proprio tempo libero.

Il mio elenco parziale di ostacoli aziendali legati all'intelligenza artificiale generativa: gestione del rischio, problemi di dati/prezzi dei clienti, scatola nera/spiegabilità, mitigazione dei limiti tecnici dei LLM, difficoltà con l'utilizzo di LLM di terze parti e personalizzazione con i dati di formazione dei clienti rispettando la privacy dei dati e optando per -outs, implicazioni per i prezzi dei clienti, pro/contro dei casi d'uso, ecc.

Si tratta di un elenco imponente di ostacoli, e non è certo un elenco completo. Eppure, come ho detto a Sikka,Considero l’intelligenza artificiale generativa un’opportunità di riscatto tecnologico aziendale . Sembra che la tecnologia di consumo sia ormai da decenni all'avanguardia nell'innovazione aziendale, con la cultura delle app per smartphone come esempio A. Ma l'intelligenza artificiale generativa ha assolutamente bisogno di guardrail responsabili, e di tutti i fattori che ho citato sopra: non è forse in questo che le aziende eccellono? ?

Come ho detto a Sikka:

Ciò che l’impresa impone all’intelligenza artificiale, a mio avviso, è esattamente ciò di cui l’intelligenza artificiale ha bisogno in questo momento, ovvero cose come la sicurezza, il controllo legale, il controllo etico e l’uso corretto dei dati. Quindi, ad esempio, una delle cose che Vianai affronta e che ChatGPT non fa è: diversi tipi di origini dati che ti daranno un risultato più pulito. Penso che anche tu, in questi strumenti, affronti alcuni dei problemi di spiegabilità, almeno in termini di provenienza delle informazioni.

Sikka è d'accordo: "Questa è un'opportunità per le imprese di mostrare la leadership verso un'intelligenza artificiale affidabile e responsabile". Un altro potenziale componente per una migliore intelligenza artificiale? Una qualche forma di apprendimento per rinforzo. OpenAI ha fatto anche una versione di forza bruta di questo, per mettere alcuni "guardrail" di pregiudizi/fanatismo su ChatGPT, anche se non senza controversie sull'approvvigionamento di manodopera. Ma le imprese, in teoria, potrebbero utilizzare la formazione su modelli iterativi per consentire agli esperti del settore di mettere a punto i risultati desiderati. Come spiega Sikka, questi approcci possono anche rafforzare la fiducia degli utenti:

L’apprendimento per rinforzo è uno dei modi per farlo. L'altra parte è semplicemente colloquiale. Il mio mentore aveva questo meraviglioso trucco in cui ti chiedeva: "Lasciamelo riprodurre". Quindi diciamo che hai posto una domanda complicata. Diceva: "Lasciamelo riprodurre; volevi fare questa domanda?' Potresti dire: "Correggilo". E poi avrebbe risposto alla domanda. Naturalmente era anche una specie di trucco, perché gli dava tempo per pensare.

Lo facciamo [a Vianai] quando non siamo sicuri delle intenzioni dell'utente. Quindi, se fai una domanda, che coinvolge join, inner join complessi o qualcosa di complicato su più tabelle, te la rimetteremo di fronte dicendo: "Ehi, intendevi questo?" E l'utente dirà: "Sì, è quello che intendevo" oppure lo correggerà. Questo è un modo molto semplice che abbiamo per chiarire le ambiguità o le intenzioni dell'utente.

Allo stesso modo, quando forniamo una risposta, sia che si tratti di dati basati su testo o di dati tabulari strutturati, la mettiamo di fronte agli utenti dicendo: "Ecco da dove abbiamo preso i dati; questa è stata la query che è stata eseguita e questa è la risposta.' Non è facile farlo. Ma noi lo facciamo, e questo è necessario per le imprese, affinché possano avere fiducia nei risultati che vengono loro presentati.

CONDIVIDERE