Um dos pioneiros da inteligência artificial argumenta que os chatbots são frequentemente estimulados a produzir resultados estranhos pelas pessoas que os usam.
Quando a Microsoft adicionou um chatbot ao seu mecanismo de busca Bing este mês, as pessoas perceberam que ele estava oferecendo todo tipo de informações falsas sobre por exemplo o Gap, a vida noturna mexicana e a cantora Billie Eilish.
Então, quando jornalistas e outros testadores iniciais tiveram longas conversas com a IA da Microsoft , ela deslizou para um comportamento grosseiro e irritantemente assustador.
Desde que o comportamento do bot do Bing se tornou uma sensação mundial, as pessoas lutaram para entender a estranheza dessa nova criação. Na maioria das vezes, os cientistas dizem que os humanos merecem grande parte da culpa.
Mas ainda há um pouco de mistério sobre o que o novo chatbot pode fazer – e por que ele faria isso.
Sua complexidade o torna difícil de dissecar e ainda mais difícil de prever, e os pesquisadores estão olhando para ele através de lentes filosóficas, bem como do código rígido da ciência da computação.
Como qualquer outro aluno, um sistema de I.A. pode aprender informações ruins de fontes ruins. E esse comportamento estranho?
Pode ser o reflexo distorcido de um chatbot das palavras e intenções das pessoas que o usam, disse Terry Sejnowski, neurocientista, psicólogo e cientista da computação que ajudou a estabelecer as bases intelectuais e técnicas para a inteligência artificial moderna.
“Isso acontece quando você se aprofunda cada vez mais nesses sistemas”, disse o Dr. Sejnowski, professor do Salk Institute for Biological Studies e da University of California, San Diego, que publicou um trabalho de pesquisa sobre esse fenômeno este mês na revista científica Neural Computation. “O que quer que você esteja procurando – o que você deseja – eles fornecerão.”
O Google também exibiu um novo chatbot, Bard, este mês, mas cientistas e jornalistas rapidamente perceberam que estava escrevendo bobagens sobre o Telescópio Espacial James Webb.
A OpenAI, uma start-up de San Francisco, lançou o chatbot boom em novembro, quando introduziu o ChatGPT, que também nem sempre diz a verdade.
Os novos chatbots são movidos por uma tecnologia que os cientistas chamam de modelo de linguagem grande, ou L.L.M. Esses sistemas aprendem analisando enormes quantidades de texto digital retirado da Internet, que inclui volumes de material falso, tendencioso e tóxico.
O texto com o qual os chatbots aprendem também está um pouco desatualizado, porque eles devem passar meses analisando-o antes que o público possa usá-lo.
Ao analisar esse mar de informações boas e ruins da Internet, um L.L.M. aprende a fazer uma coisa específica: adivinhar a próxima palavra em uma sequência de palavras.
Ele funciona como uma versão gigante da tecnologia de preenchimento automático que sugere a próxima palavra enquanto você digita um e-mail ou uma mensagem instantânea em seu smartphone. Dada a sequência “Rodrigo Santoro é um ____”, pode adivinhar “ator”.
Quando você conversa com um chatbot, o bot não está apenas desenhando tudo o que aprendeu na internet. Ele está se baseando em tudo o que você disse a ele e em tudo o que ele respondeu.
Não é apenas adivinhar a próxima palavra em sua frase. É adivinhar a próxima palavra no longo bloco de texto que inclui suas palavras e as palavras dela.
Quanto mais longa a conversa, mais influência um usuário involuntariamente tem sobre o que o chatbot está dizendo. Se você quer que ele fique com raiva, ele fica com raiva, disse o Dr. Sejnowski. Se você persuadi-lo a ficar assustador, ele fica assustador.
As reações alarmadas ao comportamento estranho do chatbot da Microsoft ofuscaram um ponto importante: o chatbot não tem personalidade. Ele está oferecendo resultados instantâneos cuspidos por um algoritmo de computador incrivelmente complexo.
A Microsoft pareceu reduzir o comportamento mais estranho quando colocou um limite na duração das discussões com o chatbot do Bing.
Foi como aprender com o piloto de testes de um carro que ir rápido demais por muito tempo pode queimar o motor. O parceiro da Microsoft, OpenAI, e o Google também estão explorando maneiras de controlar o comportamento de seus bots.
Mas há uma ressalva para essa garantia: como os chatbots estão aprendendo com tanto material e reunindo-o de maneira tão complexa, os pesquisadores não sabem ao certo como os chatbots estão produzindo seus resultados finais.
Os pesquisadores estão observando para ver o que os bots fazem e aprendendo a colocar limites nesse comportamento – muitas vezes, depois que ele acontece.
A Microsoft e a OpenAI decidiram que a única maneira de descobrir o que os chatbots farão no mundo real é deixá-los soltos – e capturá-los quando eles se desviarem. Eles acreditam que seu grande experimento público vale o risco.
Dr. Sejnowski comparou o comportamento do chatbot da Microsoft ao Espelho de Ojesed, um artefato místico em J.K. Os romances de Harry Potter de Rowling e os muitos filmes baseados em seu mundo inventivo de jovens bruxos.
“Ojesed” é “desejo” escrito ao contrário. Quando as pessoas descobrem o espelho, ele parece fornecer verdade e compreensão.
Mas isso não acontece. Ele mostra os desejos mais profundos de qualquer um que olha para ele. E algumas pessoas enlouquecem se olharem por muito tempo.
“Como o ser humano e os L.L.M.s estão espelhando um ao outro, ao longo do tempo eles tenderão a um estado conceitual comum”, disse o Dr. Sejnowski.
Não foi surpresa, disse ele, que os jornalistas começaram a ver um comportamento assustador no chatbot do Bing. Consciente ou inconscientemente, eles estavam cutucando o sistema em uma direção desconfortável.
À medida que os chatbots absorvem nossas palavras e as refletem de volta para nós, eles podem reforçar e ampliar nossas crenças e nos persuadir a acreditar no que eles estão nos dizendo.
Dr. Sejnowski estava entre um pequeno grupo de pesquisadores no final dos anos 1970 e início dos anos 1980 que começaram a explorar seriamente um tipo de inteligência artificial chamada rede neural, que impulsiona os chatbots de hoje.
Uma rede neural é um sistema matemático que aprende habilidades analisando dados digitais. Essa é a mesma tecnologia que permite que Siri e Alexa reconheçam o que você diz.
Por volta de 2018, pesquisadores de empresas como Google e OpenAI começaram a construir redes neurais que aprendiam com grandes quantidades de texto digital, incluindo livros, artigos da Wikipedia, registros de bate-papo e outras coisas postadas na Internet.
Ao identificar bilhões de padrões em todo esse texto, esses L.L.M.s aprenderam a gerar texto por conta própria, incluindo tweets, postagens em blogs, discursos e programas de computador. Eles poderiam até manter uma conversa.
Esses sistemas são um reflexo da humanidade. Eles aprendem suas habilidades analisando o texto que os humanos postaram na internet.
Mas essa não é a única razão pela qual os chatbots geram linguagem problemática, disse Melanie Mitchell, especialista em IA. pesquisador do Santa Fe Institute, um laboratório independente no Novo México.
Ao gerar texto, esses sistemas não repetem palavra por palavra o que está na internet. Eles produzem novos textos por conta própria, combinando bilhões de padrões.
Mesmo que os pesquisadores treinassem esses sistemas apenas com a literatura científica revisada por pares, eles ainda poderiam produzir declarações cientificamente ridículas.
Mesmo que eles aprendessem apenas com o texto que era verdadeiro, eles ainda poderiam produzir inverdades. Mesmo que eles aprendessem apenas com textos saudáveis, eles ainda poderiam gerar algo assustador.
“Não há nada que os impeça de fazer isso”, disse o Dr. Mitchell. “Eles estão apenas tentando produzir algo que soe como a linguagem humana.”
Os especialistas em inteligência artificial sabem há muito tempo que essa tecnologia exibe todo tipo de comportamento inesperado. Mas eles nem sempre concordam sobre como esse comportamento deve ser interpretado ou com que rapidez os chatbots irão melhorar.
Como esses sistemas aprendem com muito mais dados do que nós, humanos, jamais poderíamos imaginar ou entender por que geram um determinado trecho de texto em determinado momento.
O Dr. Sejkowski disse acreditar que, a longo prazo, os novos chatbots têm o poder de tornar as pessoas mais eficientes e dar-lhes maneiras de fazer seu trabalho melhor e mais rápido.
Mas isso vem com um aviso tanto para as empresas que constroem esses chatbots quanto para as pessoas que os usam: eles também podem nos afastar da verdade e nos levar a lugares sombrios.
“Esta é uma terra incógnita”, disse Sejkowski. “Os humanos nunca experimentaram isso antes.”
Os chatbots estão aprendendo a se comportarem como humanos , e isso inclui as mentiras e os comportamentos estranhos.
E você acredita totalmente nos chatbots ?
Fonte do texto : The New York Times
Leave a Reply