Opinião de: Ram Kumar, colaborador principal da OpenLedger

O público contribuiu conscientemente para a ascensão da inteligência artificial, muitas vezes sem perceber. À medida que os modelos de IA estão projetados para gerar trilhões de dólares em valor, é hora de começar a tratar dados como trabalho e construir sistemas de atribuição onchain para pagar aqueles que o tornam possível.

As postagens de usuários ajudaram a treinar o ChatGPT, e seus posts de blog e respostas em fóruns moldaram modelos que agora são monetizados por algumas das empresas mais poderosas do mundo.

Enquanto essas empresas estão colhendo bilhões, os usuários finais não recebem nada. Nem um cheque, um crédito ou mesmo um agradecimento.

Dados são trabalho que merece pagamento

Isso é o que o trabalho invisível parece no século 21. Bilhões de pessoas se tornaram a força de trabalho não remunerada por trás da revolução da IA. Os dados que geram, desde palavras, códigos, rostos e movimentos, são extraídos, limpos e usados para ensinar máquinas a soar mais humanas, vender mais anúncios e fechar mais negociações.

E ainda assim, no ciclo econômico que alimenta a IA, os humanos que tornam tudo possível foram completamente excluídos.

Essa história não é nova. O mesmo modelo construiu impérios nas costas do trabalho criativo não creditado. Só que agora, a escala é planetária. Isso não se trata apenas de justiça, mas de poder e se queremos um futuro onde a inteligência é possuída por três corporações ou compartilhada por todos nós.

A única maneira de redefinir a economia da inteligência é através da IA Pagável.

Um novo modelo econômico para a inteligência

Em vez de modelos de caixa-preta treinados em segredo, a IA Pagável propõe um futuro onde a IA é construída abertamente, com cada contribuinte rastreável e cada uso compensado. Cada post, vídeo ou imagem usado para treinar um modelo deve ter uma etiqueta ou um recibo digital. Cada vez que esse modelo é utilizado, um pequeno pagamento deve ser enviado ao criador original dos dados. Isso é atribuição, incorporada ao sistema.

Isso já tem precedentes. Músicos agora ganham royalties quando suas faixas são transmitidas, e desenvolvedores são creditados quando seu código open-source é reutilizado. A IA deve seguir as mesmas regras. Só porque os dados de treinamento são digitais, não significa que são gratuitos. Se houver algo, é a mercadoria mais valiosa que nos resta.

O problema é que temos tratado a IA como software tradicional — algo que você constrói uma vez e vende um milhão de vezes. Essa metáfora, no entanto, desmorona rapidamente.

A IA não é estática. Ela aprende, decai e melhora a cada interação, enfraquecendo quando os dados se esgotam. Dessa forma, a IA é mais como um ecossistema vivo que se alimenta de um fornecimento contínuo de input humano, desde linguagem e comportamento até criatividade. No entanto, não há um sistema para contabilizar essa cadeia de suprimentos e nenhum mecanismo para recompensar aqueles que a nutrem.

A IA Pagável cria uma economia circular de conhecimento — uma estrutura econômica onde a participação equivale à propriedade e onde cada interação tem valor rastreável.

Agentes autônomos de IA estarão em todo lugar: serviços de reserva, negociação de contratos e gerenciamento de negócios em alguns anos. Esses agentes estarão transacionando, e eles precisarão de carteiras. Eles também precisarão de acesso a modelos ajustados e devem pagar por conjuntos de dados, APIs e orientação humana.

Estamos caminhando em direção ao comércio máquina-a-máquina, e a infraestrutura não está pronta.

O mundo precisa de um sistema para rastrear o que um agente usou, de onde aquela inteligência veio e quem merece ser pago. Sem isso, todo o ecossistema de IA se torna um mercado negro de insights roubados e decisões não rastreáveis.

Quem controla a IA hoje?

Os problemas complicados de hoje com a IA são insignificantes comparados a agentes autônomos agindo em nome das pessoas, sem nenhuma forma de auditar de onde veio sua "inteligência".

O problema mais profundo, no entanto, é o controle.

Empresas como OpenAI, Meta e Google estão construindo modelos que impulsionarão tudo, desde educação até defesa e previsão econômica. Cada vez mais, elas dominam o terreno. E os governos — seja em Washington, Bruxelas ou Pequim — estão correndo para alcançar.

Temos uma escolha. Podemos continuar nesse caminho de consolidação, onde a inteligência é moldada e governada por um punhado de plataformas. Ou podemos construir algo mais equitativo: um sistema aberto onde os modelos são transparentes, a atribuição é automática e o valor retorna às pessoas que o tornaram possível.

Estabelecendo a base para IA ética

Isso exigirá mais do que novos termos de serviço. Demandará novos direitos, como o direito à atribuição, o direito à compensação e o direito de auditar os sistemas construídos com nossos dados. Exigirá nova infraestrutura — carteiras, camadas de identidade e sistemas de permissão — que tratam os dados não como resíduos, mas como trabalho.

Isso também exigirá uma estrutura legal que reconheça o que está acontecendo: As pessoas estão construindo valor, o que merece reconhecimento.

Neste momento, o mundo está trabalhando de graça. Mas não por muito tempo. Porque, uma vez que as pessoas entendam o que deram, perguntarão o que devem.

A questão é: Teremos um sistema pronto para pagá-los?

Estamos arriscando um futuro onde a força mais poderosa da Terra — a própria inteligência — é privatizada, não responsabilizada e totalmente além do nosso alcance.

Podemos construir algo melhor. Primeiro, precisamos admitir que o sistema atual está quebrado.

Opinião de: Ram Kumar, colaborador principal da OpenLedger.

Este artigo é para fins de informação geral e não se destina a ser e não deve ser interpretado como aconselhamento jurídico ou de investimento. As opiniões, pensamentos e visões expressas aqui são apenas do autor e não refletem ou representam necessariamente as opiniões e visões da Cointelegraph.