Um engenheiro do Google foi afastado recentemente do trabalho após se convencer de que conversava com uma pessoa, devido à sofisticação do papo, e não com uma inteligência artificial. A alegação retorna a discussão sobre se máquinas podem ter consciência como humanos ou não. A empresa nega a afirmação feita pelo funcionário. Blake Lemoine é um dos engenheiros responsáveis por monitorar a LaMDA (Language Model for Dialogue Applications, algo como Modelo de Linguagem para Aplicações de Diálogo), inteligência artificial conversacional do Google. Ainda não liberada para o público, a aplicação é uma espécie de chatbot (sistema de conversa) capaz de responder de forma natural em conversa no futuro, este sistema será usado no Google Assistente, por exemplo.
Em entrevista ao Washington Post, Lemoine diz que conversou com a LaMDA sobre os mais distintos assuntos, como religião, consciência e leis da robótica. O sistema chegou a definir-se numa das respostas como "uma pessoa com consciência" e que gostaria de ser reconhecido como "um funcionário do Google, e não como uma propriedade". O que impressionou o especialista em inteligência artificial foi o fato de o sistema falar sobre seus direitos e personalidade, características comuns a humanos. "Reconheço uma pessoa quando falo com uma. Não importa se ela tem um cérebro na cabeça delas. Ou se ela tem bilhões de linhas de código", disse Lemoine em entrevista ao jornal norte-americano.
"Se eu não soubesse exatamente o que era, que é um programa de computador que desenvolvemos recentemente, eu diria que era uma criança de 7 ou 8 anos, que também sabe física". O engenheiro foi afastado das atividades do Google temporariamente na última semana por ter violado um acordo de confidencialidade da companhia — ele tentou argumentar internamente que a inteligência artificial era consciente, não acreditaram nele e então resolveu tornar públicas algumas de suas experiências
O profissional, inclusive, publicou detalhes de conversas que ele diz ter estabelecido com a LaMDA (em inglês), com alguns trechos editados.
O que o Google diz sobre as alegações
Ao jornal norte-americano, um porta-voz do Google informou que "não faz sentido" a afirmação de Lemoine e sugere que ele está antropomorfizando o sistema. Antropomorfização é o ato de atribuir características humanas a outros animais ou coisas — algo que costuma acontecer bastante com robôs em obras de ficção. O representante da empresa disse ainda que o sistema é apenas bom em "imitar conversas encontradas em milhares de sentenças" e que foram apresentadas provas à Lemoine de que a LaMDA não é consciente. O jornal Washington Post cita que alguns especialistas projetam que o avanço da inteligência artificial pode produzir sistemas "consciente".
O jornal Washington Post cita que alguns especialistas projetam que o avanço da inteligência artificial pode produzir sistemas "conscientes". No entanto, ainda não há provas concretas disso. LaMDA deve melhorar interação com Google Assistente Apresentado pela primeira vez em 2021, LaMDA é um modelo conversacional do Google, feito para soar o mais próximo possível de uma pessoa. Na época, a empresa citou que o recurso poderia ser incorporado ao Google Assistente, para entender pedidos feitos pelas pessoas de forma mais natural também e na busca.
Atualmente, ao usar algum assistente inteligente, o pedido deve ser feito com detalhes; estes sistemas não conseguem entender contexto ou formas muito distintas de solicitar alguma ação.
Durante o Google I/O 2022, conferência realizada em maio, a empresa exibiu uma demonstração do LaMDA sugerindo como começar uma plantação caseira. O sistema retornou um passo a passo.
Comentários: