O presidente executivo do Google, Sundar Pichai, garantiu que os chatbots de Inteligência Artificial de Bard serão atualizados em breve. Ele declarou que “é evidente que temos modelos mais avançados”.
Sundar Pichai, CEO da Google, respondeu às críticas sobre o bate-papo experimental “Bard” da empresa, e garantiu que o Google irá implementar melhorias no programa em breve.
Pichai afirmou em um podcast da Hard Fork do The New York Times que “há definitivamente modelos mais aptos”. Ele disse que, em breve, alguns dos seus mais avançados modelos PaLM serão adicionados ao BARD, o que permitirá mais funcionalidades como raciocínio, codificação e respostas mais precisas para questões matemáticas. “Você verá o progresso ao longo da próxima semana”, disse ele.
De algumas formas eu acho que é como se nós tivéssemos colocado um Civic em uma competição com veículos mais rápidos.
Sundar Pichai afirmou que Bard tem uma “versão simplificada e eficiente de LaMDA”, uma IA de linguagem que se concentra na entrega de diálogos. “É como se pegamos um Honda Civic e o colocamos na mesma corrida que carros mais potentes”, disse Pichai. Por outro lado, o PaLM é um modelo de linguagem mais novo; é maior em propósito e o Google diz que é mais apto para lidar com tarefas complexas como problemas de lógica e codificação.
Ao ser lançado em 21 de março para usuários públicos, Bard não conseguiu atrair a atenção ou as aclamações que ChatGPT da OpenAI ou o chatbot Bing da Microsoft receberam. Quando testados pela The Verge, os sistemas mostraram que Bard era frequentemente menos útil do que seus concorrentes. Embora seja capaz de responder a uma grande variedade de questões, suas respostas são geralmente menos articuladas e criativas e não conseguem recorrer a fontes de dados confiáveis.
Pichai apontou que um dos motivos para a incapacidade de Bardi ser limitada era o cuidado que a Google exerce. “Era muito importante para mim não lançar um modelo mais poderoso antes de ter a garantia de que poderia lidar bem com ele”, afirmou.
Pichai confirmou que ele esteve conversando com os co-fundadores do Google, Larry Page e Sergey Brin, sobre o progresso do trabalho (“Sergey andou com os nossos engenheiros por um tempo”). Embora Pichai nunca tenha emitido o famoso “código vermelho” para parar o desenvolvimento, ele acredita que existem pessoas na empresa que mandam emails sugerindo que há um código vermelho.
Sundar Pichai discutiu inquietações acerca do ritmo acelerado de desenvolvimento da Inteligência Artificial, que pode ser uma ameaça à sociedade. Diversas comunidades de IA e tecnologia têm alertado para a perigosa disputa em curso entre OpenAI, Microsoft e Google. Esta semana, Elon Musk e outros importantes pesquisadores de IA assinaram uma carta aberta pugnando por uma parada de seis meses no desenvolvimento destes sistemas de IA.
Esta questão requer ampla discussão, pois ninguém tem todas as respostas.
Pichai declarou que “É importante ouvir preocupações nesta área” em relação à carta aberta solicitando uma pausa. Ele expressou que “há mérito na preocupação” e que “ninguém sabe todas as respostas” e que “nenhuma empresa pode obtê-las completamente corretas”. Ele também afirmou que “a IA é muito importante para não regular”, mas sugeriu que seria melhor aplicar regulamentos existentes, como regulamentos de privacidade e regulamentos de saúde, em vez de criar novas leis específicas para lidar com a IA.
Alguns especialistas preocupam-se com perigos imediatos, como a tendência de bate-papos-bots para espalhar inverdades, enquanto outros alertam sobre ameaças de maior porte; dizendo que esses sistemas são tão complicados de controlar que, se ligados à web, eles poderiam ser usados de forma destrutiva. Alguns argumentam que os programas atuais estão se aproximando da Inteligência Artificial Geralmente (AGI), que são sistemas tão capazes quanto os humanos em uma variedade de tarefas.
Pichai afirmou que é óbvio para ele que estes sistemas têm um grande potencial. Mesmo que não se tenha chegado à AGI, ainda assim é possível ter um sistema inteligente que possa difundir informação incorreta em larga escala. Por isso, é essencial que se tenha cuidado com a segurança da IA, para que se possa estar preparado para o que possa vir.
É possível ouvir a entrevista na íntegra e ler a transcrição aqui.