GPT-4, A VERSÃO MAIS “AGRESSIVA” DA INTELIGÊNCIA ARTIFICIAL:
BIG TECH E RENTISTAS DESENVOLVEM ROBÔS PARA COLOCAR A HUMANIDADE COMPLETAMENTE SERVIL AOS INTERESSES DA GOVERNANÇA GLOBAL DO CAPITAL FINANCEIRO
A OpenAI, empresa colateral da Microsoft, anunciou oficialmente nesta semana o GPT-4, a versão mais recente do seu modelo de linguagem que alimenta ferramentas de Inteligência Artificial como o ChatGPT e o novo Bing. A corporação capitalista afirma que o modelo ficou “mais criativo e colaborativo do que nunca” e agora “pode resolver problemas difíceis com mais precisão”. Tudo graças ao seu nível conhecimento geral que ficou mais amplo e a novas “habilidades para resolução de problemas”. Na verdade, o ChatGPT e seus afins é parte de uma “agressiva” Inteligência Artificial (IA) desenvolvida e controlada pela Big Tech em conjunto com o sistema financeiro para manipular o conjunto da sociedade e aumentar os ritmos de produção capitalista. As tecnologias de IA atualmente disponíveis são usadas para direcionar e manipular usuários individuais com extrema precisão e eficiência. Pior ainda, essa nova forma de manipulação personalizada pode ser implantada em escala por interesses das grandes corporações e dos governos burgueses para influenciar populações amplas, ou seja, uma verdadeira arma a serviço da Governança Global do Capital Financeiro.
No anúncio do GPT-4, a OpenAI enfatizou que o sistema passou por seis meses de treinamento. Em testes internos, a nova versão era “82% menos propensa a responder solicitações de conteúdo não permitido e 40% mais propensa a produzir respostas factuais” quando comparada ao GPT-3.5.
A diferença entre as
versões do modelo de linguagem de IA aparecem quando confrontadas por tarefas
mais complexas. O CTO da Microsoft, Andreas Braun, também revelou que o seria
GPT-4 multimodal, ou seja, capaz de trabalhar com outras mídias além de texto.
O GPT-4 é de fato multimodal. A OpenAI diz que o novo sistema já aceita
entradas de texto e imagens e pode analisar tudo simultaneamente, o que permite
interpretar conversas mais complexas.
Pelos cálculos mais conservadores, o uso da Inteligência
Artificial (IA) pelas grandes corporações, em 10 anos milhares de trabalhadores
vão estar desempregados, se sumentendo cada vez mais ao trabalho precarizado e
ultra explorado por valores miseráveis. Boa parte desses “avanços” em IA são
uma demanda do conglomerado da Big Tech em conjunto com o sistema financeiro, que
tem como fano de fundo as tecnologia militar que foram incorporadas para o
sistema financeiro norte americano nos anos 90.
É claro que as tecnologias de IA já estão sendo usadas para
impulsionar campanhas de influência em plataformas de mídia social, mas isso é
primitivo em comparação com o rumo que a tecnologia está tomando. Isso porque
as campanhas atuais, embora descritas como “direcionadas”, são mais análogas à
pulverização de chumbo grosso em bandos de pássaros. Essa tática direciona uma
enxurrada de propaganda ou desinformação a grupos amplamente definidos, na
esperança de que algumas peças de influência penetrem na comunidade, ressoem
entre seus membros e se espalhem pelas redes sociais. Essa tática é
extremamente perigosa e provoca danos ao conjunto da humanidade, polarizando
comunidades, espalhando falsidades e versões a serviço do grande capital.
Mas parecerá lento e ineficiente em comparação com a próxima
geração de métodos de influência baseados em IA que estão prestes a ser
lançados na sociedade.
Nos referimos a sistemas de IA em tempo real projetados para envolver usuários-alvo em interações de conversação e buscar habilmente metas de influência com precisão personalizada. Esses sistemas serão implantados usando termos eufemísticos como Publicidade Conversacional, Marketing Interativo, Porta-vozes Virtuais, Humanos Digitais ou simplesmente AI Chatbots.
Mas como quer que os chamemos, esses sistemas têm vetores aterrorizantes para uso indevido e abuso. Não estamos falando sobre o perigo óbvio de que consumidores desavisados possam confiar no resultado de chatbots que foram treinados em dados crivados de erros e vieses.
Estamos falando de algo muito mais nefasto – a manipulação deliberada de indivíduos por meio da implantação direcionada de sistemas de IA para conversação orientados por agenda que convencem os usuários por meio de um diálogo interativo convincente.
Em vez de disparar chumbo grosso em populações amplas, esses novos métodos de IA funcionarão mais como “mísseis de busca de calor” que marcam os usuários como alvos individuais e adaptam suas táticas de conversação em tempo real, ajustando-se a cada indivíduo pessoalmente enquanto trabalham para maximizar seu impacto persuasivo.
No centro dessas táticas está a tecnologia relativamente nova dos LLMs, que pode produzir um diálogo humano interativo em tempo real, ao mesmo tempo em que acompanha o fluxo e o contexto da conversa. Conforme popularizado pelo lançamento do ChatGPT em 2022, esses sistemas de IA são treinados em conjuntos de dados tão massivos que não são apenas hábeis em emular a linguagem humana, mas também possuem vastos estoques de conhecimento factual, podem fazer inferências lógicas impressionantes e fornecer a ilusão de senso comum humano.
Quando combinadas com geração de voz em tempo real, essas tecnologias permitirão interações faladas naturais entre humanos e máquinas que são altamente convincentes, aparentemente racionais e surpreendentemente autoritárias.
Claro, não estaremos interagindo com vozes desencarnadas, mas com personas geradas por IA que são visualmente realistas. Isso leva à segunda tecnologia de avanço rápido que contribuirá para o problema de manipulação de IA: humanos digitais.
Este é o ramo do software de computador destinado a implantar pessoas simuladas fotorrealistas que parecem, soam, se movem e fazem expressões tão autênticas que podem se passar por humanos reais.
Essas simulações podem ser implantadas como porta-vozes interativos que visam os consumidores por meio da computação 2D tradicional por meio de videoconferência e outros layouts planos. Ou, eles podem ser implantados em mundos imersivos tridimensionais usando óculos de realidade misturada (MR).
Embora a geração em tempo real de humanos fotorrealistas parecesse fora de alcance apenas alguns anos atrás, os rápidos avanços no poder de computação, mecanismos gráficos e técnicas de modelagem de IA tornaram os humanos digitais uma tecnologia viável a curto prazo.
Na verdade, os principais fornecedores de software já estão fornecendo ferramentas para tornar esse recurso amplamente difundido.
Por exemplo, a Unreal lançou recentemente uma ferramenta fácil de usar chamada Metahuman Creator. Isso foi projetado especificamente para permitir a criação de humanos digitais convincentes que podem ser animados em tempo real para interação interativa com os consumidores. Outros fornecedores estão desenvolvendo ferramentas semelhantes.
Quando combinados, humanos digitais e LLMs permitirão um mundo no qual interagimos regularmente com porta-vozes virtuais (VSPs) que parecem, soam e agem como pessoas autênticas.
De fato, um estudo de 2022 realizado por pesquisadores da Lancaster University e da U.C. Berkeley demonstrou que os usuários agora não conseguem distinguir entre rostos humanos autênticos e rostos gerados por IA. Ainda mais preocupante, eles determinaram que os usuários percebiam os rostos gerados pela IA como “mais confiáveis” do que as pessoas reais.
Isso sugere duas tendências muito perigosas para o futuro próximo. Primeiro, podemos esperar envolver sistemas orientados por IA para serem disfarçados de humanos autênticos, e logo não teremos a capacidade de perceber a diferença. Em segundo lugar, é provável que confiemos mais em sistemas de IA disfarçados do que em representantes humanos reais.
Isso é muito perigoso, pois logo nos encontraremos em conversas personalizadas com porta-vozes orientados por IA que são (a) indistinguíveis de humanos autênticos, (b) inspiram mais confiança do que pessoas reais e (c) podem ser implantados por corporações ou estados para perseguir uma agenda de conversação específica, seja para convencer as pessoas a comprar um determinado produto ou acreditar em uma determinada desinformação.
E, se não forem regulados agressivamente, esses sistemas orientados por IA também analisarão emoções em tempo real usando feeds de webcam para processar expressões faciais, movimentos oculares e dilatação da pupila – tudo o que pode ser usado para inferir reações emocionais durante a conversa.
Ao mesmo tempo, esses sistemas de IA processarão inflexões vocais, inferindo mudanças de sentimentos ao longo de uma conversa. Isso significa que um porta-voz virtual implantado para envolver as pessoas em uma conversa influenciada será capaz de adaptar suas táticas com base em como elas respondem a cada palavra falada, detectando quais estratégias de influência estão funcionando e quais não estão. O potencial de manipulação predatória por meio da IA conversacional é extremo.
Ao longo dos anos, as pessoas rejeitaram preocupações sobre a IA conversacional, dizendo-me que os vendedores humanos fazem a mesma coisa lendo emoções e ajustando táticas – portanto, isso não deve ser considerado uma nova ameaça.
Isso é incorreto por vários motivos. Primeiro, esses sistemas de IA detectarão reações que nenhum vendedor humano poderia perceber. Por exemplo, os sistemas de IA podem detectar não apenas expressões faciais, mas “microexpressões” que são muito rápidas ou sutis para um observador humano perceber, mas que indicam reações emocionais – incluindo reações que o usuário não tem consciência de expressar ou mesmo sentir.
Da mesma forma, os sistemas de IA podem ler mudanças sutis na aparência conhecidas como “padrões de fluxo sanguíneo” em rostos que indicam mudanças emocionais que nenhum ser humano poderia detectar. E, finalmente, os sistemas de IA podem rastrear mudanças sutis no tamanho da pupila e nos movimentos dos olhos e extrair pistas sobre envolvimento, entusiasmo e outros sentimentos internos privados.
A IA Conversacional será muito mais perspicaz e invasivo do que interagir com qualquer representante humano. A IA Conversacional também será muito mais estratégica na elaboração de um discurso verbal personalizado. Isso ocorre porque esses sistemas provavelmente serão implantados por grandes plataformas on-line que possuem perfis de dados extensos sobre os interesses, pontos de vista, antecedentes e quaisquer outros detalhes de uma pessoa que foram compilados ao longo do tempo.
Isso significa que, quando engajadas por um sistema de IA Conversacional que parece, soa e age como um representante humano, as pessoas estão interagindo com uma plataforma que as conhece melhor do que qualquer humano faria. Além disso, ele irá compilar um banco de dados de como eles reagiram durante interações de conversa anteriores, rastreando quais táticas persuasivas foram eficazes neles e quais táticas não foram.
Em outras palavras, os sistemas de IA Conversacional não se adaptarão apenas às reações emocionais imediatas, mas também aos traços comportamentais ao longo de dias, semanas e anos. Eles podem aprender como atraí-lo para uma conversa, orientá-lo a aceitar novas ideias, apertar seus botões para irritá-lo e, finalmente, levá-lo a comprar produtos de que não precisa e serviços que não deseja. Eles também podem encorajá-lo a acreditar em desinformações que você normalmente perceberia serem absurdas. Isso é extremamente perigoso.
Na verdade, o perigo interativo da IA Conversacional pode ser muito pior do que qualquer coisa com a qual lidamos no mundo da promoção, propaganda ou persuasão usando a mídia tradicional ou social. Por esse motivo, acredito que os reguladores devem se concentrar nessa questão imediatamente, pois a implantação de sistemas perigosos pode ocorrer em breve.
Não se trata apenas de espalhar conteúdo perigoso – trata-se de permitir a manipulação humana personalizada em grande escala. Afinal, os sistemas de IA já podem derrotar os melhores jogadores de xadrez e pôquer do mundo. Que chance uma pessoa comum tem de resistir a ser manipulada por uma campanha de influência conversacional que tem acesso à sua história pessoal, processa suas emoções em tempo real e ajusta suas táticas com precisão orientada por IA? Sem chance alguma..
Por fim, a AI serve para manipular também o mercado de ações. O erro do Google com 'concorrente' do ChatGPT que provocou perdas de US$ 100 bi em ações. Um anúncio projetado para exibir o novo bot de IA da emprea mostrou que ele respondia a uma pergunta de forma incorreta. As ações da Alphabet, controladora do Google, caíram mais de 7% na quarta-feira (8/2), o que derrubou o valor de mercado da empresa em US$ 100 bilhões (R$ 520 bilhões).
O bot conhecido como Bard foi divulgado no Twitter na segunda-feira (6/2). No anúncio, a IA foi questionada sobre o que dizer a uma criança de nove anos sobre as descobertas do Telescópio Espacial James Webb.
O Bard afirmou que o telescópio foi o primeiro a tirar fotos de um planeta fora do Sistema Solar, quando na verdade esse marco foi realizado pelo telescópio European Very Large em 2004 — um erro rapidamente notado pelos astrônomos nas redes sociais.
Os investidores também ficaram desapontados com uma apresentação que a empresa fez sobre os planos de implantar inteligência artificial em alguns produtos.
O Google está sob pressão desde o final do ano passado, quando a OpenAI, apoiada pela Microsoft, revelou o novo software ChatGPT. Ele rapidamente se tornou um sucesso viral pela facilidade que tem de passar nos testes de escola, compor letras de músicas e responder a outras perguntas.
A Microsoft disse nesta semana que uma nova versão de seu mecanismo de busca Bing, que ficou para trás do Google por anos (o Google responde a 90% das buscas realizadas na internet enquanto o Bing tem apenas 3%), usará a tecnologia ChatGPT de uma forma ainda mais avançada.
No mundo real, no mês mês passado, a Alphabet, controladora do Google, cortou 12 mil empregos — cerca de 6% da força de trabalho em todo o mundo — em meio a uma onda de demissões que se abateu sobre vários gigantes da tecnologia, devido ao aumento dos ritmos de produção oriundos da própria IA. Essa é a verdadeira face do capitalismo no mundo da luta de classes!