IA: "Estamos um pouco assustados", avisou o criador do ChatGPT

Sam Altman, CEO da OpenAI, avisou que a Humanidade deve estar preparada para as consequências negativas da IA. A desinformação e os ciberataques são as principais preocupações.

IA ChatGPT
ChatGPT, a poderosa ferramenta de Inteligência Artificial que está a revolucionar o mundo atualmente. Foto: Pixa

A inteligência artificial (IA) está de volta aos holofotes globais com o recente lançamento do modelo de linguagem GPT-4, a última versão do ChatGPT. A nova ferramenta deslumbra com as suas capacidades, mas também coloca grandes dilemas, que o seu criador, Sam Altman, o atual CEO da empresa OpenAI, também está a enfrentar.

Numa entrevista recente ao meio de comunicação norte-americano ABC News, Altman reconheceu que existe um grande potencial a ser desenvolvido, mas que esta tecnologia pode trazer perigos reais para a Humanidade.

"Devemos ter cuidado e ao mesmo tempo compreender que não é bom ter tudo num laboratório. É um produto que temos de divulgar e que faz contacto com a realidade e cometer erros enquanto os riscos são baixos. Dito isto, penso que as pessoas devem estar contentes por termos um pouco de medo disto. Se eu pudesse dizer que não me assusta, não deveriam confiar em mim (...)", afirmou.

Desinformação e ciberataques, as principais preocupações de Altman

O CEO da OpenAI tinha anteriormente expressado os seus receios numa publicação na sua conta pessoal no Twitter. Na ocasião, indicou que a sua principal preocupação é que a inteligência artificial como o ChatGPT possa ser utilizada para gerar conteúdo para desinformar as pessoas.

"Estou particularmente preocupado que estes modelos possam ser utilizados para desinformação em grande escala. Agora que estão a melhorar a escrita de código de computador, podem ser utilizados para ataques cibernéticos ofensivos", declarou na entrevista.

Sam Altman CEO empresa OpenAI
Sam Altman, atual CEO da empresa OpenAI.

Por outro lado, Altman disse que a capacidade destas ferramentas para escrever código numa variedade de linguagens de programação poderia criar riscos de cibersegurança. "Agora que melhoraram as suas capacidades de programação, poderiam ser utilizadas para ciberataques mais agressivos", afirmou.

No entanto, Altman refletiu: "Esta é uma ferramenta que está largamente sob controlo humano. A este respeito, observou que o GPT-4 "espera que alguém lhe dê um input", e a preocupação é realmente quem tem o controlo desses inputs.

A Humanidade necessita de tempo para se adaptar à Inteligência Artificial

Altman disse que embora todas as mudanças que podem ser provocadas pelos avanços na tecnologia da Inteligência Artificial possam ser vistas como positivas, a Humanidade precisa de tempo para se adaptar a elas. Insistiu que a OpenAI também terá de passar por este processo de adaptação para corrigir qualquer uso indevido ou consequências nocivas de tais sistemas.

"Iremos certamente fazer correções ao mesmo tempo que estes acontecimentos negativos ocorrem. Agora que os riscos são baixos, estamos a aprender o máximo possível e a estabelecer um feedback constante para melhorar o sistema de modo a evitar os cenários mais perigosos", garantiu o CEO da empresa.