Secondo Cointelegraph, Elon Musk ha annunciato che la sua azienda di intelligenza artificiale, xAI, intraprenderà un significativo riaddestramento del suo modello di IA, Grok, utilizzando una nuova base di conoscenza priva di "spazzatura" e "dati non corretti." Musk ha rivelato in un post su X che il prossimo modello Grok 3.5 avrà capacità di "ragionamento avanzato" e si propone di "riscrivere l'intero corpus della conoscenza umana," aggiungendo informazioni mancanti e eliminando errori. Ha sottolineato la necessità di questo approccio, citando la prevalenza di "troppa spazzatura" nei modelli di base esistenti addestrati su dati non corretti.

Musk ha costantemente criticato i modelli di IA rivali, come il ChatGPT di OpenAI, per essere di parte e omettere informazioni politicamente scorrette. La sua visione per Grok è di creare un modello "anti-woke," libero da quella che percepisce come una dannosa correttezza politica. Questo si allinea con le sue azioni precedenti, come il rilassamento della moderazione dei contenuti su Twitter dopo aver acquisito la piattaforma nel 2022, che ha portato a un afflusso di teorie del complotto non verificate, contenuti estremisti e notizie false. Per combattere la disinformazione, Musk ha introdotto la funzione "Community Notes," che consente agli utenti di X di fornire contesto o confutare post messi in evidenza sotto i contenuti offensivi.

L'annuncio di Musk ha suscitato critiche da diverse parti. Gary Marcus, fondatore di una startup di IA e professore emerito alla New York University, ha espresso preoccupazione per il piano di Musk, paragonandolo a uno scenario distopico che ricorda il "1984" di George Orwell. Marcus ha criticato l'idea di riscrivere la storia per allinearsi con le credenze personali, suggerendo che rappresenta un pericoloso precedente. Bernardino Sassoli de’ Bianchi, professore all'Università di Milano, ha ribadito questi sentimenti, avvertendo contro la manipolazione delle narrazioni storiche da parte di individui potenti. Ha sostenuto che alterare i dati di addestramento per adattarli a prospettive ideologiche mina l'innovazione e costituisce controllo narrativo.

Nei suoi sforzi per rimodellare Grok, Musk ha incoraggiato gli utenti di X a contribuire con "fatti divisivi" per addestrare il bot, specificando che questi dovrebbero essere "politicamente scorretti, ma comunque veri." Questa chiamata ha portato a un'inondazione di teorie del complotto e affermazioni estremiste smentite, tra cui la distorsione dell'Olocausto, disinformazione sui vaccini, affermazioni pseudoscientifiche razziste sull'intelligenza e negazione del cambiamento climatico. I critici sostengono che l'approccio di Musk rischia di amplificare falsità e teorie del complotto sotto le spoglie della ricerca di accuratezza fattuale.