FRom ajudando consultores Diagnosticar câncerpara ajudar os professores a elaborar planos de aula – e inundando a mídia social com inclinação derivada – A inteligência artificial generativa está sendo adotada em toda a economia em velocidade vertiginosa.
No entanto, um número crescente de vozes está começando a perguntar quanto de um ativo a tecnologia pode ser para a economia lenta do Reino Unido. Não menos importante, porque não há como escapar de uma falha persistente: os grandes modelos de idiomas (LLMs) permanecem propensos a inventar as coisas casualmente.
É um fenômeno conhecido como “alucinação”. Em um POST recente do blogo advogado Tahir Khan citou três casos em que os advogados usaram grandes modelos de idiomas para formular registros ou argumentos legais – apenas para descobrir que eles caíram em casos fictícios da Suprema Corte e compensaram regulamentos ou leis inexistentes.
“Os textos legais alucinados geralmente parecem estilisticamente legítimos, formatados com citações, estatutos e opiniões judiciais, criando uma ilusão de credibilidade que pode enganar até mesmo profissionais de advogados experientes”, alertou.
Em um episódio recente de seu podcasta emissora Adam Buxton leu trechos de um livro que ele havia comprado on -line, pretendendo ser uma compilação de citações e anedotas sobre sua própria vida, muitos dos quais eram superficialmente plausíveis – mas completamente fictícios.
O jornalista de tecnologia de tecnologia Ed Zitron argumentou em um post recente Que a tendência do chatgpt (e qualquer outro chatbot) de “afirmar algo para ser verdade, quando não é”, significava “não era um iniciante para a maioria dos clientes de negócios, onde (obviamente) o que você escreve deve ser verdadeiro”.
Os acadêmicos da Universidade de Glasgow disseram que, porque os modelos não estão configurados para resolver problemas, ou para raciocinar, mas para prever a frase mais plausível com base nas resmas de dados que eles lançaram, uma palavra melhor para seus soluços factuais não é “alucinações”, mas “toutinho”.
Em um artigo do ano passado, as glórias no título “Chatgpt é besteira”Michael Townsen Hicks e seus colegas dizem: “Os grandes modelos de idiomas simplesmente pretendem replicar a fala ou a escrita humana. Isso significa que seu objetivo principal, na medida em que eles têm um, é produzir um texto humano. Eles o fazem estimando a probabilidade de que uma palavra em particular apareça a seguir, dado o texto que chegou antes.”
Em outras palavras, as “alucinações” não são falhas que provavelmente serão resolvidas – mas parte integrante dos modelos. UM artigo recente em novo cientista sugeriu que eles estão ficando mais frequentes.
Até as formas de ponta de IA conhecidas como “grandes modelos de raciocínio” sofrem “colapso da precisão” quando confrontados com problemas complexos, de acordo com um papel muito compartilhado da Apple na semana passada.
Nada disso é subtrair a utilidade dos LLMs para muitas tarefas analíticas – e nem o LLMS é a extensão total da IA generativa; Mas isso torna arriscado se apoiar nos chatbots como autoridades – como os advogados descobriram.
Se os LLMs realmente são mais besteiros do que máquinas de raciocínio, isso tem várias implicações profundas.
Primeiro, levanta questões sobre até que ponto a IA deve estar realmente substituindo – em vez de aumentar ou ajudar – funcionários humanos, que assumem a responsabilidade final pelo que produzem.
O vencedor conjunto do ano passado do Prêmio Nobel de Economia Daron Acemoglu diz que, dados seus problemas com precisão, a IA generativa, conforme concebida atualmente, substituirá apenas um conjunto de funções definidas em um futuro próximo. “Isso afetará um monte de trabalhos de escritório que são sobre resumo dos dados, correspondência visual, reconhecimento de padrões etc. e esses são essencialmente cerca de 5% da economia”. Ele disse em outubro.
Ele pede mais um esforço de pesquisa para ser direcionado para a construção de ferramentas de IA que os trabalhadores podem usar, em vez de os bots destinados a substituí -los por completo.
Após a promoção do boletim informativo
Se ele estiver certo, é improvável que a IA venha em resgate de países – em particular o Reino Unido – cuja produtividade nunca se recuperou da crise financeira global e alguns dos formuladores de políticas esperam que a fada da AI ajude os trabalhadores a fazer mais com menos.
Segundo, quanto mais patches os benefícios da IA, mais baixos os custos da sociedade devem estar prontos para aceitar, e quanto mais devemos tentar garantir que eles sejam suportados e sempre que possível mitigados, pelos criadores dos modelos.
Isso inclui grandes custos de energia, mas também as desvantagens óbvias para a política e a democracia de inundar o domínio público com conteúdo inventado. Como Sandra Wachter, do Oxford Internet Institute, colocou isso recentemente: “Todo mundo está apenas jogando suas latas vazias na floresta. Então, será muito mais difícil dar uma boa caminhada por aí porque está sendo poluída e porque esses sistemas podem poluir muito mais rápido do que os humanos.”
Terceiro, os governos devem estar abertos a adotar novas tecnologias, incluindo a IA – mas com um entendimento claro do que podem e não podem fazer, juntamente com um ceticismo saudável de algumas de suas reivindicações mais selvagens de seus proponentes (e mais arriscados).
Para crédito dos ministros, a revisão de gastos da semana passada falou tanto sobre “digitalização” quanto sobre a IA como uma maneira de melhorar os serviços públicos.
Os ministros estão cientes de que muito antes de as faixas de funcionários públicos serem substituídos por chatbots, os cidadãos de tacada do Reino Unido gostariam de poder ouvir o médico em algum outro formato além de uma carta.
O ChatGPT e seus rivais têm poder incrível: eles podem sintetizar vastas quantidades de informação e apresentá -las em qualquer estilo e formato que você escolher, e são ótimos para desenterrar a sabedoria acumulada da web.
Mas como alguém que conheceu um besteira encantador em sua vida lhe dirá (e quem não?), É um erro pensar que eles resolverão todos os seus problemas – e é sábio manter seu juízo sobre você.