Ao vencedor, o deserto
“Inteligência artificial degenerativa” nos conduz ao mais radical processo de alienação e precisa ser controlada em nome da sobrevivência da espécie.
Faz mais de um ano, foi em julho de 2024: um trecho – um “corte”, como se diz – de um vídeo de uma intervenção de Marilena Chauí numa reunião viralizou e provocou muitos comentários jocosos. A filósofa dizia que era uma pessoa do século XX, que se recusava a entrar no século XXI, que da tecnologia digital tinha apenas um celular para falar e receber chamadas – e fazer Pix –, que não tinha WhatsApp nem redes sociais. Mas os filhos e netos insistiram em que ela precisava “se atualizar” e lhe deram o robô batizado de Alexa.
Então ela contou a historinha engraçada com a Alexa: tinha se esquecido de onde Machado de Assis havia escrito a famosa frase “ao vencedor, as batatas”, se era no Dom Casmurro ou no Quincas Borba [é no Quincas Borba], e pediu que o robô a ajudasse. Resposta da Alexa: “o mercado de batatas hoje...”.
“Isso pra mim é o século XXI”, disse. E todo mundo morreu de rir.
Sim, nós já nos divertimos muito com as barbaridades que a IA generativa produz, quando, seja por curiosidade, brincadeira ou por necessidade de buscar informação, recorremos a ela e recebemos respostas estapafúrdias. Rimos, debochamos, ridicularizamos, mas o assunto é sério demais.
O desenvolvimento da IA generativa, deixado nas mãos dos comandantes das big techs e seus delírios totalitários, noticiados com menos frequência do que o desejável, e que podem ser resumidos no projeto de criação de uma sociedade imune aos conflitos próprios de uma democracia, em que apenas os “melhores” teriam vez, conduz à mais radical alienação que jamais imaginamos.
Antes de mais nada, seria importante sublinhar o que muitos estudiosos vêm reiterando: “inteligência artificial” é uma expressão equívoca, porque não é inteligência nem artificial. Em julho deste ano, na entrevista ao programa Roda Viva, que precisa ser vista e revista, o neurocientista Miguel Nicolelis mostrou como esse equívoco também esconde as condições de brutal exploração a que milhões de pessoas se sujeitam para viabilizar os modelos da (mal) chamada IA:
O nome “inteligência” é mal usado porque inteligência é uma propriedade da matéria viva, da matéria orgânica, dos organismos. Ninguém sabe muito bem definir inteligência, esse é um dos grandes problemas da área de inteligência artificial porque ela tenta ganhar dinheiro e fazer coisas sem nem saber o que ela está fazendo. Mas inteligência pode ser geralmente definida como uma propriedade emergente dos organismos para lidar com um ambiente em fluxo contínuo e com outros organismos, é uma propriedade adaptativa do processo de seleção natural que dependeu de bilhões de anos de eventos aleatórios que não podem ser reproduzidos num código digital.
E ela não é artificial porque depende do trabalho humano para todas as fases fundamentais do treinamento dos modelos, da checagem, curadoria, inclusive é hoje talvez a indústria que mais emprega pessoas no trabalho semiescravo ao redor do mundo, milhões de pessoas na África, nos acampamentos de refugiados, na Venezuela, na Colômbia, na América Latina inteira, para fazer o famoso data labelling, que é necessário para poder treinar todos esses modelos, pagando centavos por hora, em regime sem nenhuma segurança trabalhista, sem nenhuma garantia.
Nicolelis diz que preferiria chamar a IA de “estatística multivariável sofisticada”, mas é claro que esta ou outra denominação mais rigorosa não teria o mesmo atrativo publicitário. Lembra que foi contra isso, aliás, que Joseph Weizenbaum, um dos pais dessa área de pesquisa, se insurgiu durante trinta anos, dizendo que nomear aquela experiência de “IA” era um artifício usado por outros pesquisadores para obter financiamento, por seu apelo de marketing instantâneo.
O apelo marqueteiro tem outras consequências nada inocentes: ele se presta à “humanização” – e fetichização – dos robôs, como se não fossem fruto do engenho humano, e alimenta a discussão absolutamente estéril sobre se, afinal, eles vão suplantar-nos, a ponto de nos tornarmos inúteis – a eterna dicotomia homem x máquina que acompanha o desenvolvimento tecnológico, e que Álvaro Vieira Pinto desmontou exemplarmente em O conceito de tecnologia, uma obra concluída ainda em 1973 mas apenas editada em 2005. Estávamos então a léguas da situação que enfrentamos hoje, mas as bases da discussão estavam todas ali.
É a partir dessas bases que podemos enfrentar o problema novo que a IA generativa vem colocando, da forma como vem sendo desenvolvida. Não se trata apenas, como se fosse pouco, do impacto sobre o mundo do trabalho, que já vinha se transformando e se degradando há décadas. Trata-se de algo ainda mais grave: a progressiva delegação de tarefas intelectuais à máquina e a aceitação acrítica do que ela produz, que levam à corrosão da capacidade de pensar e contribui para configurar um ambiente de permanente incerteza quanto àquilo em que se pode acreditar.
A resposta da Alexa de Marilena Chauí é apenas um dos inúmeros exemplos risíveis, que nos fazem zombar da tal “inteligência” artificial e tachá-la de absolutamente ignorante. Mas temos muitas outras respostas perfeitamente credíveis, cercadas de fontes aparentemente fidedignas, e que só são desmascaradas diante da dúvida e do empenho em esclarecê-las. O recente relato do jornalista português Miguel Szymanski, em sua página no Facebook em 11 de outubro, dá bem a medida disto:
...faço uma pesquisa para confirmar a existência duma pessoa, a testar se a IA acrescenta alguns dados. O omnipresente software de IA refere em segundos um documento (livro com a lista de habitantes duma região, disponível numa biblioteca pública online) e diz-me que essa pessoa é referida “na página 296 do original do documento que corresponde à página 273 do PDF”. Mais, para me ajudar e poupar trabalho, a IA entrega-me logo, como citação, todo o parágrafo de texto sobre essa pessoa. Como sou meticuloso, abro o PDF. Vejo a capa facsimilada do livro de registos e reconheço a edição. Há anos, antes da IA, já tinha pesquisado exactamente naquele livro e a pessoa que procurava não estava na lista. Ou será que na altura não a encontrei na listagem alfabética? Vou para a página que a IA indicou. A pessoa continua ausente da lista. Confronto o modelo de IA: que nem a pessoa nem a citação que me deu constam da página indicada. A IA insiste, “inconsistência da ordem alfabética”, diz, e dá-me os dois nomes que vêm antes e a seguir daquele que procuro. Vou ver com trabalho aturado de entrar num PDF pesado, de folhear as páginas muito lentas, e entre esses dois nomes, novamente, nada. Que se trata dum “erro de paginação do original”, insiste a IA. Que está numa “rubrica simplificada do livro noutra secção”. Mas a pessoa não está na lista e a citação não existe. Tudo fabulado, fabricado, inventado. A estratégia é, finalmente, assumida pelo próprio modelo de linguagem IA: “Indiquei o número das páginas e formulei o texto para reforçar a ilusão de rigor e ancorar a minha hipótese”.
Não se trata, portanto, apenas de identificar erros, ou melhor, invenções fabricadas pela máquina, mas de notar seu empenho em produzir a “ilusão de rigor” e convencer quem a consulta de que a informação falsa é verdadeira.
Quantos terão a mesma perseverança e qualificação deste jornalista? Quantos terão tempo para insistir na pesquisa? Mais ainda: quantos terão elementos objetivos, como ele, para duvidar de uma informação aparentemente tão bem sustentada?
(Em favor do robô, podemos dizer que, se ele está programado para mimetizar o comportamento humano, e se os humanos se caracterizam por mentir, iludir e dissimular com muita frequência, então ele está correspondendo perfeitamente ao projeto).
Pensemos agora no mundo acadêmico. Na profusão de vídeos (“reels”) que dão dicas para a utilização de ferramentas tecnológicas a estudantes que precisam fazer pesquisas. Aplicativos desenvolvidos por universidades norte-americanas aparentemente isentos desse tipo de “erro”, capazes de entregar em minutos artigos muito bem fundamentados na área de conhecimento desejada. Basta digitar o endereço, clicar em “começar” e ver “a mágica acontecer”, como diz uma divulgadora desse tipo de coisa.
Alguém acha, honestamente, que um texto desses vai apenas servir de base para a elaboração de um trabalho próprio? Ainda mais numa atividade submetida, como todas as outras de modo geral, ao produtivismo que é o critério da avaliação de desempenho?
Não, obviamente: diante de tal facilitação, a pessoa nem vai ler o que a máquina lhe entregou. Vai baixar o PDF, enviá-lo e pronto, está cumprida a tarefa.
Não sem antes esquecer de assinar, naturalmente.
Não é preciso refletir muito para concluir que isso, à parte o óbvio e crucial problema ético de se apresentar como próprio um texto alheio, simplesmente extingue a pesquisa acadêmica. Para que empenhar-se em pensar, gastar semanas, meses em leituras, pesquisas, trabalho de campo, para produzir uma reflexão própria e original, se tudo pode se resolver em um clique? Então, em breve, os robôs vão se encarregar de gerar textos – ou qualquer outro material – a partir do manancial de fontes de que já dispõem, e ninguém mais terá certeza da legitimidade da autoria nem da fidedignidade das informações.
E quem ainda ousar investir no esforço para produzir um trabalho original vai passar a ser avaliado não mais por pares – pesquisadores de reconhecida competência –, mas por modelos de IA, como já vem acontecendo, e que, por óbvio, não são capazes de lidar com ideias novas, porque estão limitados ao que já existe.
(No caso brasileiro, o quadro se completa com as mudanças no sistema de avaliação da Capes para a produção científica da pós-graduação, com a adoção das métricas de downloads e citações. São as plataformas ditando a regra).
Isto é especialmente grave porque o meio acadêmico, como o jornalístico, deveria ser um parâmetro de credibilidade. Nesse contexto, deixa de ser e é engolido pelo mesmo sistema que embaralha tudo e nos deixa em permanente estado de incerteza, à maneira do que acontece com o que circula ininterruptamente nas redes sociais.
Agora pensemos nas gerações que estão chegando. As “nativas digitais”, estimuladas desde antes de começarem a falar a se distrair nas telas de um celular. O cérebro acostumando-se a rolar as telas ininterruptamente, sem se fixar em nada. A “economia da atenção” que é, de fato, a economia da dispersão: o adestramento para assistir a vídeos em sequência, vídeos cada vez mais curtos, que mesmo assim nem chegam ao fim porque são interrompidos por publicidade, o cérebro levando esses golpes sistemáticos e habituando-se a isso, tornando-se incapaz de ter paciência para se concentrar no que quer que seja.
Se isso já afeta quem se formou no mundo analógico, que dirá quem está chegando agora.
Num artigo no jornal português Público, Bárbara Reis pergunta se pode pedir “três segundos” da nossa atenção, porque é esse o tempo em que se captura a atenção de alguém para continuar a visualização de alguma informação numa dessas assim (também mal) chamadas mídias sociais.
Três segundos.
Ou se agarra o cidadão em três segundos ou já o perdemos. Quantas palavras conseguimos ler em três segundos?
Este novo padrão tem que ver com muitas coisas: o lixo que aparece nas nossas redes sociais, mas também a brevidade com que tudo é tratado, porque ninguém tem paciência para nada que dure mais do que três segundos. Para “maximizar o potencial viral” dos vídeos, os gurus aconselham que sejam curtos e legendados, porque muitas pessoas os vêem sem som (estão na escola, no autocarro, no trabalho, numa reunião, à mesa de jantar...). O ideal? Entre 15 e 30 segundos.
A seguir, Bárbara cita um trecho do ensaio The dawn of the post-literate society – And the end of civilisation, de James Marriott, escritor e crítico no britânico The Times. Segundo ele, depois da “revolução da leitura” do século XVIII, estamos na “contrarrevolução”:
Muitos estudos mostram que a leitura está em queda livre. Mesmo os críticos mais pessimistas do século XX da era dos ecrãs teriam dificuldade em prever a dimensão da crise actual. Nos EUA, a leitura por prazer caiu 40% nos últimos 20 anos. No Reino Unido, mais de um terço dos adultos diz ter desistido da leitura. A National Literacy Trust relata quedas “chocantes e desanimadoras” na leitura infantil. A indústria editorial está em crise. No final de 2024, a OCDE publicou um relatório que constatou que os níveis de alfabetização estavam “em declínio ou estagnados” na maioria dos países desenvolvidos. O que aconteceu foi o smartphone, amplamente adoptado nos países desenvolvidos em meados da década de 2010. Esses anos serão lembrados como um divisor de águas na história da humanidade. Hoje, uma pessoa passa, em média, sete horas por dia a olhar para um ecrã. Para a Geração Z, são nove horas. Um artigo recente do Times revelou que, em média, os estudantes modernos estão destinados a passar 25 anos das suas vidas acordados a navegar em ecrãs. Um artigo publicado na Atlantic, Os estudantes universitários de elite que não conseguem ler livros, cita a experiência de um professor: “Há vinte anos, [era fácil] ter discussões sofisticadas sobre Orgulho e Preconceito numa semana e Crime e Castigo na seguinte. Agora, os alunos dizem-lhe abertamente que a carga de leitura parece impossível. Não é só o ritmo frenético; eles têm dificuldade em prestar atenção aos pormenores enquanto acompanham o enredo”.

No início de agosto, Sérgio Rodrigues lançou o livro Escrever é humano, que dedica o último capítulo ao impacto que a “inteligência artificial” vem exercendo sobre a atividade da leitura e da escrita, e argumenta que em breve – em muito breve, pelo que podemos constatar –, ninguém mais vai precisar escrever mais nada, se não quiser, porque os robôs darão conta dos textos banais e corriqueiros do cotidiano – e não só, diria eu, considerando o que vem ocorrendo em escolas e universidades e nos meios jornalístico e jurídico, pelo menos. Mas não avança nas consequências disso: se escrever é resultado do ato de pensar, então em breve cancelaremos essa atividade, ou a reduziremos drasticamente. Consequentemente, já não leremos mais nada, porque não teremos estímulo para isso. A literatura sobreviveria, entretanto, no que Sérgio define como uma “aldeia gaulesa”, último bastião da resistência. Porém, como alimentar essa aldeia? Escritores, artistas, pesquisadores, pensadores se formam a partir de referências sólidas: se conseguimos atingir um nível de excelência, é porque nos erguemos sobre os ombros de gigantes. Mas esses gigantes poderão sobreviver se as nossas referências passarem a ser duvidosas, produzidas por máquinas que interagem entre si a partir do que produzimos ao longo de milênios e embaralham tudo, o que é verdadeiro e o que não é?
(Conversando com o Sérgio sobre isso, ele sustentou que os gigantes não desapareceriam, para quem insistisse em valorizá-los. O robô não poderia impedir, por exemplo, que Machado tenha vivido. E eu respondi que, se deixarmos de exercitar o pensamento, se delegarmos tudo o que nos é mais precioso e que nos distingue como espécie à máquina que nós mesmos criamos, Machado vai mesmo deixar de existir. Porque ninguém mais vai saber que existiu, nem vai se interessar por isso. Ou até poderá saber, mas não terá certeza quando quiser confirmar).
Há seis anos começaram a circular vídeos que mostravam como as deepfakes eram viáveis e se tornavam cada vez mais verossímeis, como este que abria com uma suposta declaração do ex-presidente Barack Obama, na verdade manipulada digitalmente. Hoje se multiplicam exemplos de estímulo à criação dessas deepfakes. Este aqui, inicialmente, aparenta ser crítico, com o apelo a que as pessoas “questionem o que estão vendo” – como se tivessem tempo, meios e capacidade para fazer esse discernimento –, mas a sequência mostra que é o contrário disso: “Verifiquem no que vocês acreditam e sigam o que vocês quiserem”. Porque, é claro, a verdade é o que eu quero que seja.
É o ápice do relativismo que, durante décadas, surgiu como potencialmente – e enganosamente – revolucionário, por aparentar a contestação de ordem instituída, real ou supostamente excludente e opressora, e que, agora, constitui o também enganoso mote da extrema-direita pelo mundo. Comandada pelos “overlords” das big techs, a tecnologia que propicia essa indistinção entre realidade e ficção fomenta o estado de permanente incerteza que favorece a erosão do chão comum essencial para qualquer debate racional que permita situarmo-nos no mundo e facilita a manipulação das piores emoções a partir da mobilização de crenças e preconceitos ancestralmente enraizados.
Na entrevista ao Roda Viva, Nicolelis lembrou que, quando lançou o robô Eliza, “avô do ChatGPT”, Weizenbaum logo percebeu a relação de dependência que seus alunos e mesmo sua secretária passaram a desenvolver em relação a esse mecanismo, conversando com ele como se houvesse uma pessoa do outro lado. Percebeu que havia uma tendência a antropomorfizar o sistema, simplesmente porque Eliza supria uma das maiores carências da humanidade no mundo contemporâneo: a necessidade de ter um interlocutor. Eliza ouvia as pessoas e elas se sentiam acolhidas. (Será por isso que tanta gente vem recorrendo a modelos de IA generativa para fazer terapia: é de graça e é mais fácil, basta apertar um botão. É uma tragédia, mas isso é outra história).
Nicolelis disse que Weizenbaum tentou, sem sucesso, alertar para a impossibilidade de prosseguir com aquele tipo de experimento, por um imperativo ético categórico: “há áreas em que não podemos penetrar”.
No entanto, continuamos avançando, sem limites, sem qualquer constrangimento. O resultado é a progressiva delegação de tarefas intelectuais à máquina. Nicolelis citou o exemplo de recente pesquisa no MIT que demonstrou que 80% dos jovens do grupo testado para escrever redações com o auxílio do ChatGPT não se lembravam do que haviam escrito e, pior, quando lhes mediram a atividade elétrica do cérebro, “tinham 50% menos de atividade cortical, ou seja, não estavam pensando, estavam no automático”.
(A pesquisa tem limitações, como diz a coordenadora, Nataliya Kosmyna: envolveu apenas 54 estudantes de cinco universidades de Boston, solicitados a desempenhar uma tarefa específica, portanto precisaria ser repetida em universos mais amplos, e não passou ainda pela revisão por pares, condição necessária para a publicação em revista científica. Mas ela resolveu divulgá-la logo porque suas conclusões, ainda que preliminares, indicam no mínimo a necessidade de prudência na utilização dessa ferramenta em escolas: como declarou à revista Time, citada em reportagem de O Globo, seu receio era de que, em seis ou oito meses, algum formulador de políticas decidisse: “vamos fazer um jardim de infância com GPT”. Nesta entrevista à revista Galileu, é possível saber mais sobre os argumentos da pesquisadora).
Mas retornemos a Nicolelis: “Weizenbaum criou, com outras palavras, a frase que eu uso há muitos anos: a conveniência do uso de sistemas automáticos vai matar a agência humana”. Ele esclarece que não se trata de “negar as vantagens e benefícios da tecnologia”, mas de “entender os riscos que corremos ao delegar nossas funções cognitivas a elas”.
Quando a gente começa a subcontratar a nossa mente para um sistema digital e toda dúvida que você tem vai perguntar para o Grok ou o Google, o cérebro, como consome 20% da energia que nós produzimos, vai dizer: opa, não preciso mais consumir energia para pensar. E começa a subcontratar. E começa a esquecer. Começa a esquecer a forma de raciocinar.
(“Peça à Meta para imaginar alguma coisa”, apela a plataforma da Meta. Peça à Meta, claro, porque você já não consegue imaginar nada).
Será este o sentido mais profundo da provocação que o sociólogo Ricardo Antunes fez ao rebatizar a inteligência artificial generativa de “inteligência artificial degenerativa”, embora pensasse basicamente nas consequências do uso dessa tecnologia para o mundo do trabalho, determinado por relações “que nunca foram tão destrutivas, porque são relações movidas, plasmadas e concebidas pelo sistema do capital”. Ao divulgar o livro Automação e o futuro do trabalho, de Aaron Benanav, recém-lançado pela Boitempo, Antunes concluiu que “o desafio crucial não é a inteligência artificial em si, mas a necessidade imperiosa de controlar a inteligência artificial para que ela não seja destrutiva”.
Podemos fazer graça e dizer que nos recusamos a entrar no século XXI, mas, se o que a vida pede de nós é coragem – a propósito, onde foi mesmo que li isto? Foi no Grande Sertão, do Rosa? Alexa, por favor, me ajude... “o mercado das rosas, que é parte da floricultura...” –, se o que a vida pede de nós é coragem, precisamos tomar consciência do que está acontecendo e denunciar e enfrentar esse processo da mais radical alienação que nos vem sendo imposto, e ao qual aderimos como se só nos trouxesse vantagem. Precisamos entender a necessidade de estancar essa forma inédita de servidão voluntária como condição para a sobrevivência da espécie.
Do contrário, o século XXI nos atropela e só nos restará o deserto, habitado por uma legião de zumbis.
Com relação à terapia, quando consultado o chatgp sugere procurar um profissional mas diz que PODE AJUDAR.
Quanto a um nome para substituir AI vai uma sugestão: pega nome dado pelo Nicholelis tira uma palavra; deixa só Sthocastic Statistics (SS).