Mira C'è una certa sensazione Mira che si insinua dopo aver trascorso abbastanza tempo intorno ai moderni sistemi di intelligenza artificiale. Non è panico, e non è nemmeno sfiducia nel senso ovvio. È più come una quieta esitazione nella parte posteriore della tua mente. I sistemi funzionano. La maggior parte delle volte funzionano in modo impressionante. Rispondono alle domande istantaneamente, riassumono le informazioni in modo chiaro e spesso sembrano più sicuri delle persone che li usano. Eppure quella sicurezza a volte sembra leggermente fuori luogo.

Mira La conoscenza umana di solito Mira porta una sorta di attrito. Le persone esitano quando non sono certe. Si fermano, riformulano o ammettono quando qualcosa potrebbe essere sbagliato. I sistemi di intelligenza artificiale raramente fanno così. Rispondono rapidamente e senza intoppi, come se l'incertezza non esistesse. Più noti questa differenza, più diventa difficile ignorarla. Non perché le risposte siano sempre sbagliate, ma perché a volte sembrano finite in un modo che la vera conoscenza raramente è.

Mira La ragione sottostante non è misteriosa. La maggior parte dei modelli AI moderni genera uscite prevedendo schemi da enormi dataset. Non verificano i fatti nel modo in cui gli esseri umani di solito pensano alla verifica. Invece, producono risposte che sono statisticamente probabili di assomigliare a informazioni corrette. Quel approccio è incredibilmente potente, ma significa anche che il sistema riempie occasionalmente le lacune con qualcosa che sembra solo giusto. Una citazione che sembra legittima ma non esiste. Un dettaglio che si adatta alla narrazione ma non è mai stato effettivamente confermato.

Le persone spesso chiamano questi momenti Mira “allucinazioni,” ma il termine quasi rende la questione drammatica. In pratica, gli errori sono di solito silenziosi e sottili. Quella sottigliezza è ciò che li rende scomodi. Il sistema suona autorevole anche quando sta indovinando.

Mira Man mano che l'AI inizia a muoversi in aree in cui l'affidabilità è importante—finanza, ricerca, legge, sanità—quel piccolo divario tra fiducia e certezza diventa più difficile da trascurare. Costruire modelli più grandi ha aiutato in molti modi. Le tecniche di allenamento stanno migliorando. Ma l'architettura centrale continua a presumere che se un modello genera qualcosa di abbastanza convincente, sarà probabilmente accettabile.

Ciò che è interessante nei progetti Mira come Mira Network è che sembrano partire da un'assunzione diversa. Invece di cercare di costringere i modelli AI a diventare perfettamente affidabili, il sistema tratta le loro uscite come qualcosa che potrebbe dover essere controllato. Quando un'AI produce una risposta, la risposta può essere suddivisa in affermazioni più piccole. Quelle affermazioni vengono quindi distribuite attraverso una rete in cui altri modelli valutano se sembrano accurate.

Mira L'idea non è che un sistema conosca la verità. L'idea è che più sistemi che esaminano la stessa affermazione potrebbero essere in grado di raggiungere una conclusione più affidabile rispetto a qualsiasi singolo modello da solo.

All'inizio questo suona quasi Mira come un dettaglio tecnico. Ma quando ci pensi più a lungo, inizia a sembrare un cambiamento di prospettiva. Invece di assumere che l'intelligenza stessa debba essere fidata, il design assume che l'intelligenza sia fallibile e costruisce la verifica attorno a quel fatto.

Dove le cose diventano Mira. più complicate è il livello economico dietro il sistema. I partecipanti che verificano le affermazioni vengono ricompensati attraverso la struttura del token della rete. I validatori scommettono valore, valutano le uscite e guadagnano incentivi quando la loro verifica si allinea con il consenso della rete. Se si comportano in modo disonesto o negligente, rischiano di perdere quegli asset scommessi.

Mira. Questa struttura richiama la logica dietro molte reti decentralizzate. Invece di fare affidamento su un'autorità centrale, il sistema cerca di allineare gli incentivi in modo che il comportamento onesto diventi la scelta più razionale per i partecipanti.

Mira. Ogni volta che esistono ricompense economiche, emergono strategie attorno a quelle ricompense. Alcuni partecipanti si comporteranno in modo onesto perché il sistema lo incoraggia. Altri potrebbero cercare scorciatoie—modi per massimizzare i guadagni con il minimo sforzo. Se il valore del token fluttua, quella pressione potrebbe spostare gli incentivi in modi che i progettisti non avevano mai previsto.

In altre parole, Mira le reti di verifica ereditano la stessa complessità che esiste nei mercati finanziari. Gli incentivi guidano il comportamento, ma attirano anche strategie opportunistiche. Nel tempo, la stabilità del sistema dipende da quanto bene le sue regole si adattano a quelle pressioni.

Un altro strato di incertezza proviene dai modelli stessi. Anche se più sistemi AI verificano un'affermazione, potrebbero condividere dati di addestramento o assunzioni simili. Se quei pregiudizi sottostanti si sovrappongono, l'accordo tra i modelli potrebbe semplicemente riflettere punti ciechi condivisi piuttosto che una conferma indipendente.

La trasparenza dovrebbe Mira affrontare questo. Poiché gli eventi di verifica possono essere registrati su una blockchain, il processo diventa auditable. Chiunque può esaminare come sono state prese le decisioni e come è stato raggiunto il consenso. Rispetto ai sistemi opachi in cui le uscite dell'AI appaiono senza spiegazione, quella visibilità è significativa.

Mira Tuttavia, la trasparenza ha dei limiti. Le informazioni essere pubbliche non significa necessariamente che tutti possano interpretarle. I sistemi distribuiti diventano spesso abbastanza complessi che solo un piccolo gruppo di specialisti comprende veramente come funzionano. Per la maggior parte delle persone, la fiducia finisce per poggiare sulla convinzione che gli incentivi del sistema scoraggiano la manipolazione.

MiraPiù a lungo pensi a strutture come questa, più iniziano a sembrare meno soluzioni finali e più esperimenti nel design dei sistemi. Invece di cercare di perfezionare l'intelligenza dell'AI stessa, cercano di rimodellare l'ambiente attorno ad essa. L'intelligenza può rimanere probabilistica, ma la verifica può essere strutturata.

Se quel approccio funziona, Mira l'esito probabilmente non sembrerà drammatico. Non ci sarà un momento in cui l'AI diventa improvvisamente affidabile da un giorno all'altro. Cambiamenti come questo di solito appaiono gradualmente.

Le applicazioni potrebbero iniziare a reindirizzare le loro uscite attraverso livelli di verifica senza che gli utenti se ne accorgano. Le risposte dell'AI potrebbero portare segnali sottili che mostrano che le affermazioni sono state controllate da sistemi indipendenti. L'esperienza di utilizzo di questi strumenti potrebbe lentamente spostarsi da “questo suona convincente” a “questo sembra coerente.”

Un vero successo per qualcosa come Mira Network non si mostrerebbe nei titoli di testa su tecnologia rivoluzionaria. Si mostrerebbe in modi più silenziosi. Meno citazioni fabbricate nei riassunti di ricerca. Meno risposte sicure quando i dati sono mancanti. Sistemi che occasionalmente si fermano piuttosto che fingere certezza.

Mira un livello di verifica diventa Mira parte dell'infrastruttura AI quotidiana, la maggior parte delle persone non ci penserà mai. Interagiranno semplicemente con sistemi che sembrano leggermente più attenti di quelli che li hanno preceduti. E nel tempo, l'assenza di piccole incoerenze potrebbe essere la cosa più vicina. Int che otteniamo a una vera fiducia nelle macchine.

@Mira - Trust Layer of AI $ROBO #ROBO