
Descrever o trabalho como desleixado, de baixa qualidade e burocrático não é o feedback ideal. Mas essas expressões servem de alerta aos empregadores sobre os riscos e limitações do conteúdo gerado pela inteligência artificial.
“O ‘workslop’ [conteúdo de baixa qualidade gerado por inteligência artificial] é uma nova forma de burocratismo automatizado nas organizações”, afirma André Spicer, escritor e reitor da Bayes Business School. “Enquanto as antigas formas de lama burocrática, como reuniões ou relatórios extensos, levavam tempo para serem produzidas, essa nova forma de lama é rápida e barata de produzir em grandes quantidades. E o que é dispendioso precisa abrir caminho no meio dessa lama.”
Muitos executivos defendem as novas ferramentas da inteligência artificial que ajudam suas equipes a sintetizar pesquisas, articular ideias, produzir documentos e economizar tempo – mas às vezes a tecnologia pode estar fazendo o contrário disso.
Este mês a Deloitte anunciou que reembolsaria o governo australiano parcialmente por um relatório que produziu e continha erros cometidos pela inteligência artificial, o que mostra os riscos de seu uso para as empresas de serviços profissionais.
O possível dano não é apenas externo – para a reputação da empresa –, mas também interno, já que um conteúdo de baixa qualidade gerado por IA pode resultar em relatórios prolixos, com significados distorcidos e verborrágicos, o que significa trabalho adicional para os colegas que precisam decifrá-lo.
Embora a inteligência artificial reduza de maneira expressiva o esforço de elaborar e combinar discursos de venda e propostas, ela não “reduz na mesma proporção os custos de processar essas informações”, acrescenta Spicer.
Ou como resume Michael Eiden, diretor administrativo da área de serviços de tecnologia digital da Alvarez & Marsal: “A facilidade de acesso à IA generativa tornou mais fácil do que nunca produzir trabalho muito rápido – mas não necessariamente com o melhor padrão.”
Um relatório recente da plataforma de coaching Better Up e do Stanford Social Media Lab constatou que, em média, funcionários que trabalham em escritórios nos Estados Unidos estimam que 15% do trabalho que recebem são workslop da IA.
Esse problema que está surgindo realça a necessidade de políticas claras e de aumentar a supervisão sobre o uso da inteligência artificial, assim como do treinamento dos funcionários.
Recentemente, o Financial Reporting Council, a agência reguladora da área de contabilidade e auditoria no Reino Unido, advertiu que as quatro grandes empresas do setor estavam falhando em controlar como as ferramentas automatizadas e a inteligência artificial afetavam a qualidade de suas auditorias, apesar de terem aumentado o uso da tecnologia para fazer avaliações de risco e recolher evidências. Na semana passada, uma associação dos profissionais de contabilidade publicou um relatório sobre as ameaças éticas da IA – questões relativas a imparcialidade, preconceito e discriminação – para os profissionais da área de finanças.
Ao mesmo tempo, a Suprema Corte do Reino Unido pediu que os profissionais da área jurídica se mantenham vigilantes depois de dois casos em que se acredita que advogados teriam usado a inteligência artificial nos processos, inclusive com argumentações jurídicas por escrito e depoimentos de testemunhas que continham informações falsas, “tipicamente uma referência ou citação falsa”.
“As empresas não devem simplesmente entregar essas ferramentas aos funcionários sem nenhuma orientação”, diz Eiden. “Elas precisam definir de maneira clara o que se considera um bom resultado.”
A Alvarez & Marsal está elaborando exemplos práticos e guias de como escrever instruções claras e precisas nas consultas para ajudar os funcionários a usarem a IA de forma responsável e eficaz. “Para trabalhos em que há muita coisa importante em jogo, a revisão humana continua a ser um ponto não negociável – a tecnologia pode ajudar, mas nunca deve ser a autora final”, afirma Eiden.
James Osborn, diretor digital de grupo da KPMG Reino Unido e Suíça, concorda e enfatiza a importância não só do processo de conferir a exatidão do conteúdo por parte dos funcionários, mas também de “processos de governança adequados” para garantir que a tecnologia seja usada de forma correta.
Não é apenas a capacidade da inteligência artificial de ajudar no conteúdo do trabalho dos funcionários que é alvo de escrutínio, mas também as tarefas administrativas, inclusive as de agendamento de reuniões e de tomar notas, de acordo com um relatório da Asana. O documento destacou as reclamações dos funcionários sobre agentes de IA que enviam informações falsas e os obrigam a refazer tarefas, o que aumenta sua carga de trabalho.
Quando empregadores não estabelecem uma política clara sobre o uso da inteligência artificial no local de trabalho, os funcionários podem utilizá-la às escondidas. Um relatório deste ano da Capgemini verificou que 63% dos desenvolvedores de software usavam ferramentas não autorizadas, o que tem sérias implicações éticas e de segurança, como compartilhar os dados da empresa.
Além das questões éticas e dos erros, outro problema são as cobranças sobre os funcionários para que identifiquem e corrijam o workslop, uma expressão cunhada este mês por pesquisadores para descrever o “conteúdo gerado por IA que aparenta ser um bom trabalho, mas carece da substância necessária para avançar de maneira significativa em uma determinada tarefa. O conteúdo resultante pode ser “de pouca utilidade, incompleto ou não incluir um contexto crucial sobre o projeto em questão”, escreveram eles em um artigo publicado na Harvard Business Review. Isso significa que quem recebe esse conteúdo pode ter de “interpretar, corrigir ou refazer o trabalho”.
Kate Niederhoffer, psicóloga social, vice-presidente do BetterUp Labs, a divisão de pesquisa da plataforma de serviços de coaching, e uma das autoras do relatório, insiste em que os funcionários não produzem workslop por motivos “nefastos”, mas normalmente porque “têm muito trabalho para fazer”. Ela divide os usuários por alto em dois tipos de mentalidade: a dos “pilotos” e a dos “passageiros”. Os “pilotos”, descreve, são aqueles que têm curiosidade sobre a inteligência artificial e a usam para ampliar suas capacidades e não para substituí-las, enquanto os “passageiros” são relutantes, sentem-se sobrecarregados de trabalho e usam a IA para ganhar tempo. “Uma das razões para o workslop pode ser o fato de que o número de funcionário é pequeno demais, e assim tudo parece urgente e importante.”
Niederhoffer exorta os gestores a darem apoio a suas equipes e a serem claros sobre o provável efeito que um trabalho de baixa qualidade tem sobre os colegas.
Clareza sobre o propósito e o uso da inteligência artificial é algo fundamental, na avaliação de Joe Hildebrand, diretor administrativo de talentos e organização da Accenture. “Quando você compreende claramente o valor tangível e específico que a IA pode trazer para seu contexto, você tem mais condições para desenvolver e implementar ferramentas que criem um impacto significativo, e não apenas ruído.”
Mark Hoffman, chefe do Laboratório de Inovação no Trabalho da Asana, propõe quatro pilares centrais para o uso da inteligência artificial, a começar pela definição de diretrizes que equilibrem as questões jurídicas, de TI e de segurança com as necessidades práticas da empresa. Ele também recomenda oferecer treinamentos que vão além das habilidades técnicas necessárias para escrever instruções claras e precisas em uma consulta e ensinem habilidades mais comportamentais de delegação de poder; estabelecer regras de prestação de contas que deixem claro quem é responsável quando alguma coisa dá errado; e determinar padrões de controle de qualidade que deem prioridade à exatidão e ao rastreamento de erros, junto com a eficiência. “O objetivo não é só identificar que comportamentos devem ser evitados, mas que comportamentos devem ser reforçados e estimulados.”
Hildebrande enfatiza a importância da “reversibilidade”. “Toda implantação de IA precisa incluir mecanismos manuais que permitam a uma pessoa reverter ou cancelar um comando ou desligar a máquina em uma emergência. Monitorar a frequência com que as pessoas revertem decisões de IA e usar essas informações para aperfeiçoar o sistema pode aumentar a confiança.”
Para alguns especialistas, à medida que a inteligência artificial automatiza de forma crescente os processos de trabalho, a inserção manual de dados se tornará cada vez mais crucial. Spicer observa que mais universidades têm pedido aos alunos que façam uma prova por escrito ou uma apresentação verbal, em vez de enviar trabalhos por via digital. “É provável que as empresas passem a confiar cada vez mais no fornecimento de dados e nos processos analógicos para tomar decisões quando que há muita coisa importante em jogo.”
Stuart Mills, professor assistente de Economia da Universidade de Leeds, acredita que os gestores se deixaram levar pelo “entusiasmo com a IA e o imediatismo na obtenção de resultados” e sua atenção se desviou da necessidade de “fazer perguntas importantes sobre organizações e produtividade”.
A tendência, na sua opinião, é medir a produção do trabalhador do conhecimento por linhas de código ou pelo número de relatórios, o que pode criar “uma ilusão de produtividade”.
“Os gestores precisam se perguntar: ‘O que é que fazemos para criar valor? E podemos usar a IA em nossa estrutura atual, ou precisamos mudar nossa estrutura?’ Não vejo essas perguntas sendo feitas”, diz Mills.