*Por Sarah Scire
Um relatório produzido por Felix Simon, pesquisador e estudante de doutorado do Oxford Internet Institute, entrevistou mais de 130 jornalistas e executivos de notícias de 35 veículos de comunicação de Estados Unidos, Reino Unido e Alemanha. Suas descobertas sugerem que, à medida que os motores de busca alimentados por IA (inteligência artificial) ganham destaque e mais redações adotam a tecnologia internamente, “um desequilíbrio de poder familiar” pode emergir entre editores de notícias e empresas de tecnologia.
Segundo o relatório, as redações se tornaram mais adeptas à IA não só porque a tecnologia melhorou e se tornou mais acessível ao público, mas também porque se tornou aceitável e amplamente utilizada em outras indústrias. Os tempos difíceis no negócio do jornalismo também levaram algumas organizações a experimentar a tecnologia.
“Penso que uma das verdades sobre a indústria dos meios de comunicação social é que se trata de uma indústria que está sob uma certa pressão óbvia por dinheiro, por novos modelos de negócio, por descobrir qual é o seu futuro”, disse a Simon um editor alemão.
Se os meios de comunicação estão sendo pressionados pela dinâmica da indústria e pelas pressões do mercado, também são puxados por promessas de maior eficiência.
Como disse um executivo dos EUA: “A questão estratégica é: com a quantidade limitada de tempo e recursos, como poderíamos aproveitar ao máximo o nosso talento jornalístico?”.
Alguns artigos de notícias produzidos por IA com informações incorretas, links inventados e redação totalmente ruim ganharam as manchetes. Mas essa está longe de ser a forma mais comum de as redações usarem a IA. Quase todos os entrevistados relataram usar a tecnologia para ajudar na transcrição.
Paywalls dinâmicos que usam pontos de dados para prever a probabilidade de um determinado usuário pagar por uma assinatura –e alterar quando (e se) esse usuário vê um paywall com base nessas previsões– já existem há anos.
As organizações de notícias também têm usado IA para automatizar alguns tipos de cobertura e dar sentido a grandes conjuntos de documentos.
Dada a tendência dos grandes modelos de linguagem de alucinarem ou de cometerem erros, vários meios de comunicação disseram que implementaram freios de mão editoriais para verificar cuidadosamente qualquer resultado generativo de IA.
“Eu tentei muito, e verificar às vezes leva mais tempo do que escrever um resumo sozinho”, disse um entrevistado.
Não são apenas textos e artigos de notícias gerados por IA que exigem novas verificações. Muitos na indústria expressaram preocupação e frustração pelo fato de empresas de IA terem se recusado a compartilhar informações suficientes sobre os dados e o trabalho humano utilizados para construir os seus modelos, ou sobre regras ou parâmetros ocultos que podem afetar os resultados.
(Pesquisadores de mídia que estudavam podcasts recentemente enfrentaram problemas antes de perceberem que o modelo OpenAI que estavam usando rejeitava descrições de episódios que mencionavam até mesmo indiretamente sexo ou crime: “Levou algum tempo para descobrir o que estava acontecendo e como contornar isso”, disse um entrevistado)
Investigações de veículos como The Markup e Rest of World já revelaram alguns dos preconceitos enterrados nos sistemas de IA. Sem transparência, a “caixa preta” de algumas ferramentas de tecnologia pode atrasar consideravelmente o trabalho jornalístico.
Em entrevista a Simon, um jornalista comparou uma ferramenta de IA que ele usa a “uma calculadora não confiável”. “Acho que minha principal preocupação é: está faltando alguma coisa, é uma ferramenta ruim, está interpretando mal o que eu quero? E acho que se você continuar não encontrando o que espera, poderá fazer, você sabe, mais testes manuais”, declarou.
Muitos entrevistados expressaram preocupação com o fato de a IA fornecida por empresas externas poder “minar a sua autonomia” como jornalistas de formas que poderiam ser, preocupantemente, “imprevisíveis” devido a esta falta de transparência. Estas incluíam “limitar as capacidades discricionárias de tomada de decisão” e “estruturar a sua visão sobre o que é digno de nota de forma a dificultar a reflexão sobre contrafactuais ou alternativas, ou introduzindo preconceitos nos seus resultados”.
“Não sei com o que foi treinado e que preconceito pode ter”, disse um repórter. “E isso, claro, influencia o tipo de história que posso contar.”
Os jornalistas entrevistaram reportagens usando ferramentas de IA fornecidas por empresas como Google, Amazon e Microsoft para automatizar diversas tarefas. Simon identificou um “desequilíbrio de poder familiar entre plataformas e editores” em que as organizações de notícias não são, mais uma vez, as que têm vantagem.
Como os editores de notícias descobriram durante um relacionamento tumultuado com o Facebook, as plataformas nem sempre têm em mente os melhores interesses da indústria de notícias e se tornar dependente de uma delas para obter receitas e referências de tráfego pode levar a uma grande dor de cabeça. Agora, em vez de a Meta financiar novas iniciativas e fazer ruídos tranquilizadores sobre a importância do jornalismo local, é a Microsoft que está a anunciar novas parcerias jornalísticas e a OpenAI a fechar grandes acordos de licenciamento com editores de notícias.
O relatório conclui que “as plataformas não apenas determinam as condições gerais de uso, mas também têm controle sobre termos mais granulares, como até que ponto permitem que os editores personalizem aplicativos de IA”.
Os entrevistados indicaram o Graphiq como um sinal de alerta para o uso da tecnologia. A ferramenta de infográficos foi usada pela Associated Press, LA Times, Reuters e outros, mas encerrou seu serviço para redações um mês depois de anunciar que estava sendo adquirida pela Amazon, em 2017.
“A Graphiq elogiou a indústria de notícias da boca para fora em uma declaração (‘Gostamos muito de trabalhar com editores nos últimos anos para ajudá-los a contar as notícias e esperamos continuar a usar nossa tecnologia em outras áreas interessantes’), mas os editores que estavam usando, ficaram na mão”, declarou Simon.
Os estabelecimentos mais pequenos e com menos recursos têm maior probabilidade de acabarem dependentes. As organizações de notícias maiores e em melhor situação entrevistadas eram mais propensas a ter algumas ferramentas internas de IA, descobriu Simon.
“Minhas descobertas sugerem que o alto custo do desenvolvimento de IA personalizada a coloca fora do alcance de todos, exceto das organizações de notícias com melhores recursos”, escreveu ele. “Para todos os outros, as soluções mais viáveis são ofertas de terceiros de empresas de plataforma e similares.”
A ascensão de chatbots e mecanismos de pesquisa com tecnologia de IA que fornecem respostas resumidas de relatórios, em vez de enviar usuários a sites de notícias por meio dos familiares links azuis, tem preocupado alguns de que a IA possa não derrubar apenas o conteúdo do Superb Owl, mas organizações de notícias inteiras.
Um gerente de redação, baseado na Alemanha, relatou que quase 2/3 da audiência on-line do seu meio de comunicação vem da pesquisa, com 90% dessa parcela do Google. “Isso é um grande risco para nós, se os cliques em nosso conteúdo se tornarem opcionais porque o Google decidiu apostar tudo na pesquisa aprimorada por IA, onde os usuários apenas obtêm respostas curtas”, disse o executivo a Simon.
“Por que as pessoas ainda viriam ao nosso site e leriam uma história se pudessem obter algo [por meio de pesquisa aprimorada por IA] que fosse adaptado aos seus interesses?”, perguntou outro jornalista, radicado nos Estados Unidos.
As implicações da pesquisa alimentada por IA, escreve Simon, “dependerão de escolhas estratégicas feitas por um conjunto de atores poderosos sobre os quais a indústria de notícias tem pouco controle, mas cujas decisões podem ter graves ramificações para os editores –tanto em termos de posição financeira quanto em capacidade de alcançar o público”.
Em última análise, argumenta Simon, a IA representa mais uma “reformulação” das notícias. “Isso não afeta a necessidade fundamental de acessar e coletar informações, de processá-las em ‘notícias’, de alcançar públicos novos e existentes e de ganhar dinheiro”, diz o pesquisador.
Alguns gestores de redações reconheceram a Simon que a IA pode assumir alguns empregos no jornalismo. A maioria parece concordar, no entanto, que reportagens e escolhas de notícias originais parecem estar fora do alcance da tecnologia por enquanto.
“O trabalho do jornalismo é encontrar coisas que ainda não estão na internet. A inteligência artificial não será capaz de fazer isso”, declarou o editor.
*Sarah Scire é editora adjunta do Nieman Lab. Anteriormente, ela trabalhou no Tow Center for Digital Journalism da Columbia University, Farrar, Straus and Giroux e The New York Times.
Texto traduzido por Caio Vinicius. Leia o original em inglês.
O Poder360 tem uma parceria com duas divisões da Fundação Nieman, de Harvard: o Nieman Journalism Lab e o Nieman Reports. O acordo consiste em traduzir para português os textos que o Nieman Journalism Lab e o Nieman Reports e publicar esse material no Poder360. Para ter acesso a todas as traduções já publicadas, clique aqui.