Não, a inteligência artificial do Google não é razoável

By | Junho 13, 2022



Negócios da CNN

As empresas de tecnologia estão constantemente enfatizando as possibilidades de sua inteligência artificial cada vez melhor. Mas o Google rapidamente extinguiu as alegações de que um de seus programas havia avançado tanto que se tornou razoável.

De acordo com um uma história de abrir os olhos no Washington Post no sábado, um engenheiro do Google disse que, após centenas de interações com um sistema de inteligência artificial inédito e de última geração, o chamado LaMDAele acreditava que o programa havia atingido um nível de consciência.

Em entrevistas e declarações públicas, muitos na comunidade de inteligência artificial negaram as alegações dos engenheiros, enquanto alguns apontaram que sua história enfatiza como a tecnologia pode levar as pessoas a atribuir atributos humanos a ela. Mas a crença de que a inteligência artificial do Google pode ser razoável, sem dúvida, ressalta nossos medos e expectativas sobre o que essa tecnologia pode fazer.

LaMDA, que significa “Dialog Application Language Model”, é um dos vários grandes sistemas de IA que são treinados para grandes quantidades de texto da Internet e podem responder a consultas escritas. Sua tarefa é, em essência, encontrar padrões e prever qual palavra ou palavras devem vir a seguir. Esses sistemas estão ficando melhores em responder perguntas e escrever de maneiras que podem parecer convincentemente humanas – e o próprio Google apresentou o LaMDA em maio passado em um blog como alguém que pode “lidar com um número aparentemente infinito de tópicos de maneira imperturbável”. Mas os resultados também podem ser malucos, estranhos, perturbadores e propensos a vaguear.

O engenheiro, Blake Lemoine, teria dito ao Washington Post que compartilhou evidências com o Google de que o LaMDA era razoável, mas a empresa discordou. Em um comunicado, o Google disse na segunda-feira que sua equipe, que inclui especialistas em ética e tecnólogos, “revisou as preocupações de Blake de acordo com nossos princípios de IA e o informou que as evidências não apoiam suas alegações”.

Em 6 de junho, Lemoine anunciou no Medium que o Google o havia colocado em licença administrativa remunerada “em conexão com uma investigação sobre as preocupações éticas de inteligência artificial que eu havia levantado dentro da empresa” e que ele poderia ser demitido “em breve”. (Ele mencionou a experiência de Margaret Mitchell, que liderou a equipe ética de inteligência artificial do Google até que o Google a demitiu no início de 2021 após sua abertura sobre a saída do então co-líder Timnit Gebru no final de 2020. Gebru foi demitida após conflitos internos, incluindo um que se refere ao trabalho de pesquisa que a administração da empresa de IA disse para retirar a consideração para uma apresentação em conferência ou remover seu nome.)

Um porta-voz do Google confirmou que Lemoine continua de licença administrativa. De acordo com o The Washington Post, ele foi afastado por violar a política de privacidade da empresa.

Lemoine não estava disponível para comentar na segunda-feira.

O surgimento contínuo de poderosos programas de computador treinados em grandes quantidades de dados também levantou preocupações sobre a ética que governa o desenvolvimento e o uso de tal tecnologia. E às vezes o progresso é visto através das lentes do que pode vir, não do que é atualmente possível.

As respostas da comunidade de IA à experiência de Lemoine ricochetearam nas mídias sociais no fim de semana e geralmente chegaram à mesma conclusão: a inteligência artificial do Google não está nem perto da consciência. Abeba Birhane, associado sênior de inteligência artificial confiável da Mozilla, tweetao no domingo, “entramos em uma nova era ‘esta rede neural está ciente’ e desta vez esgotará tanta energia para refutação”.

Gary Marcus, fundador e CEO da Geometric Intelligence, que foi vendida para a Uber, e autor de livros como “Rebooting AI: Building Artificial Intelligence We Can Trust”, chamou a ideia de LaMDA de razoável “absurdo sobre palafitas” em um tweet. Ele rapidamente escreveu um postagem do blog apontando que tudo que esses sistemas de inteligência artificial fazem é combinar padrões extraindo-os de enormes bancos de dados de linguagem.

Em entrevista na segunda-feira à CNN Business, Marcus disse que a melhor maneira de pensar em sistemas como o LaMDA é como uma “versão celebrada” do software de preenchimento automático que você pode usar para prever a próxima palavra em uma mensagem de texto. Se você digitar “Estou com muita fome, então quero entrar”, “restaurante” pode ser sugerido como a próxima palavra. Mas essa previsão foi feita com a ajuda de estatísticas.

“Ninguém deve pensar que o preenchimento automático, mesmo com esteróides, é consciente”, disse ele.

Em entrevista, Gebru, que é o fundador e CEO Instituto Distribuído de Pesquisa de IAou DAIR, disse que Lemoine é vítima de várias empresas que afirmam que a IA ou inteligência artificial geral – uma ideia relacionada à IA que pode realizar tarefas humanas e se comunicar conosco de maneira significativa – não está longe.

Por exemplo, ela observou, Ilya Sutskever, cofundadora e cientista-chefe da OpenAI, tweetao Fevereiro que “pode ​​ser que as grandes redes neurais de hoje sejam um pouco conscientes”. E na semana passada, o vice-presidente do Google e colega Blaise Aguera y Arcas ele escreveu em um artigo para The Economist que quando ele começou a usar o LaMDA no ano passado, “eu me sentia cada vez mais como se estivesse falando com algo inteligente”. (Esse artigo agora inclui uma nota do editor observando que Lemoine desde então “supostamente foi colocado de licença depois de afirmar em uma entrevista ao Washington Post que o LaMDA, o chatbot do Google, se tornou ‘razoável'”)

“O que está acontecendo é que há uma corrida em usar mais dados, mais computação, para dizer que você criou essa coisa geral que sabe tudo, responde a todas as suas perguntas ou o que quer que seja, e esse é o tambor que você tocou”, disse ele. é Gebru. “Então, como você pode se surpreender quando essa pessoa leva isso ao extremo?”

Em um comunicado, o Google observou que o LaMDA passou por 11 “diferentes princípios de revisão de IA”, bem como “pesquisas e testes rigorosos” em relação à qualidade, segurança e capacidade de fazer declarações baseadas em fatos. “É claro que alguns na comunidade de IA mais ampla estão considerando a possibilidade de longo prazo de IA razoável ou geral, mas não faz sentido antropomorfizar os modelos de conversação de hoje, que não são razoáveis”, disse a empresa.

“Centenas de pesquisadores e engenheiros falaram com o LaMDA e não sabemos que alguém fez reivindicações amplas ou antropomorfizou o LaMDA, como Blake”, disse o Google.

Deixe uma resposta

O seu endereço de email não será publicado.