Avanços científicos e tecnológicosInteligência artificialMachine learningNotícias

Por que a indústria de Inteligência Artificial poderia diminuir o seu ritmo?

Eu adoro você.

Qual é o impacto de quatro meses?

Se você tivesse me perguntado em novembro como eu achava que os sistemas de inteligência artificial estavam avançando, eu poderia ter dado uma resposta evasiva. No entanto, então o OpenAI havia lançado o DALL-E, e eu fiquei bastante maravilhado com as possibilidades criativas que ele ofereceu. No geral, após observar as principais plataformas despertarem a inteligência artificial, poucos produtos no mercado pareciam estar de acordo com as visões ambiciosas que nos foram apresentadas ao longo dos anos.

Então, o OpenAI desenvolveu o ChatGPT, o chatbot que impressionou o público com suas capacidades criativas. A tecnologia GPT da Microsoft, o motor de busca Bing, a Claude de Anthropic e o Bard do Google chegaram em ritmo acelerado. As ferramentas baseadas em Inteligência Artificial estão sendo implementadas rapidamente em outros aplicativos da Microsoft e logo estarão disponíveis no Google.

À medida que nos aproximamos de um universo de mídias sintéticas generalizadas, surgem alguns sinais de perigo. No sábado, uma foto do Papa Francisco usando um casaco de puffer branco luxuoso se espalhou na internet – e eu fui enganado a acreditar que era real. O criador do site de inteligência de código aberto Bellingcat foi expulso do Midjourney depois de usá-lo para fabricar e divulgar algumas imagens incrivelmente convincentes de Donald Trump sendo detido. (A empresa desativou depois os testes gratuitos seguindo a onda de novos registros.)

Um conjunto de tecnólogos de destaque está solicitando que os fabricantes dessas tecnologias reduzam o ritmo de desenvolvimento.

O texto sintético está se tornando cada vez mais comum nos processos de trabalho de estudantes, copywriters e qualquer outra pessoa envolvida na produção de conteúdo; esta semana, o BuzzFeed foi o último meio de mídia a começar a explorar artigos produzidos por inteligência artificial.

Concomitantemente, as plataformas de tecnologia estão reduzindo seus grupos de profissionais de ética de IA. Um grande modelo de linguagem criado por Meta foi publicado em 4chan e, em pouco tempo, alguém descobriu como fazer com que funcione em um laptop.

No local, a OpenAI criou extensões para o GPT-4, que possibilitam que o modelo de linguagem acesse serviços de API e tenha uma interação mais direta com a web, o que suscita o temor de que crie novas oportunidades inimagináveis para o mal. (Eu fiz uma pergunta ao OpenAI sobre isso; não houve resposta.)

Contra este caos, um grupo de importantes tecnólogos está pedindo aos fabricantes desses meios para relaxar. O New York Times apresenta Cade Metz e Gregory Schmidt como exemplo.

Mais de mil líderes e especialistas em tecnologia, contando com Elon Musk, instaram os laboratórios de Inteligência Artificial a estaciona o desenvolvimento dos sistemas mais complexos, advertindo numa mensagem aberta que as ferramentas de Inteligência Artificial representam “perigos profundos para a sociedade e humanidade”.

Você vai gostar:   O Projeto Max 2023 tem como objetivo incentivar a revolução na área de hardware para a Inteligência Artificial.

Os programadores de Inteligência Artificial estão encarando uma carreira desenfreada para construir e implementar cérebros digitais cada vez mais avançados, que sequer seus criadores conseguem compreender, prever ou gerenciar de maneira segura, de acordo com uma declaração emitida na quarta-feira pelo Future of Life Institute, uma organização não governamental.

Outros que assinaram a carta incluem Steve Wozniak, um dos co-criadores da Apple; Andrew Yang, um empreendedor e candidato à presidência de 2020; e Rachel Bronson, presidente do Boletim dos Cientistas Atômicos, responsável pela definição do Relógio do Juízo Final.

A carta me toca como uma indicação da jornada da Inteligência Artificial em direção à consciência generalizada. Desde há muito que críticos e acadêmicos tem alertado para os riscos que essas tecnologias trazem. Contudo, desde a última queda, poucas pessoas que brincam com DALL-E ou Midjourney se inquietam com “uma corrida desenfreada para desenvolver e implantar mentes cada vez mais digitais”. E ainda assim, aqui estamos.

Emily M. Bender, professor de Linguística da Universidade de Washington e analista de IA, qualificou a carta dos tecnólogos como “bomba quente”, devido, em parte, ao fato de que o doomerismo promovido por ela favorece as empresas de IA, tornando-as muito mais influentes do que o que elas são. (Veja também Max Read sobre esse assunto.)

No meio de um conjunto de indivíduos que estão ansiosamente preocupados com a decepção promovida pela Inteligência Artificial (IA), muitos dos que se disseram dispostos a assinar a carta não o fizeram. A Forbes descobriu que o instituto que desenvolveu a campanha foi fortemente financiado por Musk, que tem planos de criar uma IA própria.

A velocidade das alterações na Inteligência Artificial é tão grande que parece que em nenhum momento demorará para ultrapassar nossa habilidade para compreendê-la.

Não devemos nos preocupar exclusivamente com a velocidade do desenvolvimento das tecnologias de Inteligência Artificial. No mês passado, Ezra Klein sugeriu que nossa atenção deveria estar nos modelos de negócios que sustentam o sistema. A preocupação é que a IA com suporte publicitário seja capaz de manipular nosso comportamento mais poderosamente do que imaginamos, e isso pode ser perigoso, independentemente da velocidade de desenvolvimento dessa tecnologia. Klein escreveu que “a sociedade terá que descobrir o que é aceitável para a IA fazer e o que ela não deve tentar fazer, antes que seja tarde demais para tomar essas decisões”.

Você vai gostar:   A produção em larga escala de GPUs GeForce RTX 4070 da Asus sem conexão está programada para acontecer nesta queda, com uma variante em branco agora revelada.

É benéfico e necessário ter críticas. Contudo, qualquer falha que se possa encontrar na carta aberta – aplico um desconto significativo ao que Musk tem dito ultimamente -, estou convencido do seu argumento geral. A rapidez da mudança na Inteligência Artificial é tal que muito em breve será superior à nossa capacidade de a processar. E os subscritores da carta solicitam — uma pequena paragem no desenvolvimento de modelos de linguagem mais complicados do que os já libertados — parece um pedido insignificante no contexto global.

A análise técnica tende a se concentrar na inovação e em seus efeitos presentes. É raro considerar como as novas tecnologias podem provocar mudanças profundas na sociedade. No entanto, a Inteligência Artificial pode ter um impacto significativo no mercado de trabalho, na segurança de informações, na segurança cibernética e na geopolítica; assim, devemos pensar mais alto sobre seus possíveis resultados.

II. Qual é o significado da vida?

Aviv Ovadya, que tem estudado o mundo da informação e cuja pesquisa eu já abordei anteriormente, participou da equipe vermelha da OpenAI antes do lançamento do GPT-4. Red-teaming é basicamente um jogo de RPG no qual os participantes atuam como inimigos de um sistema para identificar suas fraquezas. O time vermelho do GPT-4 descobriu que, se não controlado, o modelo de linguagem poderia fazer todos os tipos de coisas que não desejávamos, como contratar um TaskRabbit não solicitado para resolver um CAPTCHA. OpenAI foi então capaz de corrigir isso e outros problemas antes de liberar o modelo.

A Ovadya acredita que a realização de red-teaming por si só não é suficiente. Ele escreve que não é suficiente conhecer o resultado do modelo, mas também é necessário entender quais efeitos a liberação do modelo pode ter na sociedade. Para garantir a segurança de instituições públicas e bens, e para evitar o uso indevido, a Ovadya propõe que especialistas em áreas como ensino, jornalismo e operações militares sejam consultados antes da liberação do modelo.

Ovadyá denominou este método como “colaboração violeta”.

Pode-se ver isto como uma espécie de judô. Uma vasta nova fonte de energia, os sistemas de Inteligência Artificial de uso geral, estão sendo liberados no mundo, e isso pode ser um risco para nossos bens públicos. Assim como o judô emprega o próprio poder do atacante para derrotá-lo, o time violeta busca desviar o poder desses sistemas AI para proteger esses bens.

Na prática, a execução de equipe de violeta pode incluir a criação de uma espécie de “incubadora de resistência”: aproximar especialistas fundados em organizações governamentais e propriamente públicos com indivíduos e organizações que podem desenvolver com rapidez novos produtos usando modelos de Inteligência Artificial (pré-lançamento) para ajudar a amortecer os riscos.

Você vai gostar:   Elon Musk apoia a tendência #BanTheADL, pois anúncios de supremacia branca são publicados na plataforma.

Se a OpenAI e o Google adotassem a equipe de Violeta, voluntariamente ou por meio de uma agência federal, isso nos ajudaria a nos preparar melhor para as consequências da utilização de modelos ainda mais poderosos no nosso planeta.

Na melhor das circunstâncias, somente as equipes azuis cumpririam os requisitos que necessitamos aqui. Há muitos pontos básicos que devem ser tratados. Será permitido que os grandes modelos, como o GPT-4, sejam executados em computadores portáteis? É necessário limitar a extensão a qual esses modelos podem conectar-se à internet global, assim como os plug-ins do OpenAI fazem agora? Existe alguma agência governamental existente que controle essas tecnologias, ou precisamos criar uma nova? Se sim, com que rapidez podemos fazê-lo?

A rapidez da conexão à internet frequentemente se torna um empecilho para nós.

Não penso que devas cair nesta euforia da Inteligência Artificial só para acreditar que teremos de ter uma resposta para estas questões – se não agora, logo a seguir. O nosso governo lento necessitará de algum tempo para dar respostas. Se a tecnologia continuar a progredir mais rapidamente do que o governo consegue compreendê-la, certamente nos arrependeremos de deixá-lo acelerar.

De qualquer modo, nos próximos meses teremos a oportunidade de observar o impacto real do GPT-4 e seus concorrentes, e nos ajudará a compreender onde e como deveríamos agir. Entretanto, o fato de que não será liberado nenhum modelo mais complexo durante esse período oferece algum consolo para aqueles que acreditam que a Inteligência Artificial pode não ser tão danosa como alguns pensam.

Se eu tirei uma lição ao lidar com o atraso para mídias sociais, é que às vezes a velocidade da internet opera contra nós. Falsidades se propagam mais depressa do que a capacidade de controlá-las; discursos de ódio incitam a violência mais rapidamente do que os medos podem ser acalmantes. Impor limites aos posts de mídia social enquanto eles se viralizam, ou fornecer informações extras de contexto, tornam as redes mais resistentes a maus usuários que aproveitariam isso para fins ruins.

Não sei se a Inteligência Artificial será responsável pelos danos que alguns temem. No entanto, esses riscos são mais prováveis de ocorrer se a indústria persistir em acelerar.

Aceitar a expansão de línguas maiores não é a solução final para os desafios em questão. No entanto, isso pode proporcionar-nos uma oportunidade de progresso.

Related Articles

Back to top button