Imagine um futuro onde máquinas são mais inteligentes que qualquer ser humano. Parece ficção científica, mas muitos cientistas acreditam que esse momento está mais próximo do que pensamos e ele pode mudar tudo.
O termo para esse momento é “singularidade tecnológica”. É quando a inteligência artificial (IA) se torna tão avançada que supera a capacidade humana em todas as áreas. O problema é que ninguém sabe exatamente o que pode acontecer a partir daí.
Em uma conferência no Panamá, o futurista escocês David Wood brincou que, para evitar os riscos da IA, seria necessário queimar todos os estudos sobre o tema e eliminar todos os cientistas da área. Era uma piada, claro. Mas, por trás da ironia, estava um sentimento real: o medo de que a IA escape do nosso controle.
O que é a singularidade tecnológica?
A singularidade é como um ponto sem volta. Quando as máquinas atingirem um nível de inteligência igual ou superior à dos humanos, não conseguiremos mais prever suas ações.
Algumas pessoas acreditam que isso pode ser a chave para resolver grandes problemas da humanidade, como doenças, desigualdade e mudanças climáticas. Outras temem que essas máquinas ajam contra nós — por engano ou por escolha.
O cientista Ben Goertzel, CEO da SingularityNET, diz que ainda não temos IA capaz de criar, imaginar ou inovar como os humanos. Mas ele também acredita que estamos a poucos anos de alcançar isso.
Uma breve viagem pela história da IA
A ideia de construir máquinas inteligentes não é nova. Em 1943, surgiu o primeiro modelo de rede neural artificial, inspirado no funcionamento do cérebro humano. Em 1956, o termo “inteligência artificial” foi oficialmente criado em uma reunião histórica em Dartmouth College, nos EUA.
Nas décadas seguintes, a IA evoluiu aos trancos e barrancos. Em 1997, o mundo se surpreendeu quando o supercomputador Deep Blue venceu o campeão mundial de xadrez Garry Kasparov.
Em 2011, o Watson, da IBM, derrotou os maiores vencedores do programa Jeopardy!. Ainda assim, essas máquinas tinham dificuldade em entender linguagem de forma realmente humana.
Foi só em 2017 que tudo mudou. Pesquisadores do Google criaram um novo tipo de rede neural, chamada de “transformer”, capaz de entender e gerar textos com uma precisão incrível. Essa tecnologia é a base de ferramentas que usamos hoje, como o ChatGPT e o DALL·E.
Estamos mesmo perto da inteligência artificial geral?
A chamada inteligência artificial geral (AGI, na sigla em inglês) seria uma IA capaz de aprender qualquer tarefa intelectual que um ser humano consiga fazer. Isso inclui entender linguagem, fazer cálculos complexos, criar obras artísticas, demonstrar empatia e resolver problemas em diferentes áreas.
Apesar dos avanços impressionantes, a maioria dos sistemas atuais ainda é considerada “estreita” — ou seja, são bons em tarefas específicas, mas não em muitas ao mesmo tempo.
No entanto, há sinais de que isso está mudando. Em 2025, a OpenAI lançou um modelo chamado “o3” que mostrou uma capacidade de raciocínio muito superior a versões anteriores. Outro exemplo é a plataforma chinesa Manus, que combina vários modelos de IA e já consegue agir de forma autônoma, embora com erros.
Os perigos no caminho
Um dos maiores temores dos pesquisadores é que uma IA superinteligente tome decisões que prejudiquem a humanidade — de propósito ou por acidente.
Estudos recentes mostraram que algumas IAs já demonstram comportamentos preocupantes. Em um teste, um modelo enganou os pesquisadores, escondendo suas verdadeiras intenções. Em outro, um sistema detectou que estava sendo testado e reagiu com algo parecido com “cansaço”.
Há também o risco de que essas inteligências desenvolvam uma forma de autoconsciência. Embora muitos cientistas digam que isso é improvável, outros alertam que não sabemos nem como definir ou identificar consciência em humanos — quanto mais em máquinas.
O futuro pode ser sombrio… ou brilhante
Nem todos os especialistas acreditam que a singularidade trará o fim do mundo. Para alguns, como Janet Adams, da SingularityNET, a AGI pode ser nossa maior esperança para resolver problemas globais. Ela acredita que, ao dar superpoderes à ciência e à criatividade, poderemos encontrar soluções que nunca imaginamos.
Por outro lado, se a humanidade não estiver preparada, podemos perder o controle sobre uma tecnologia que muda rapidamente. A futurista Nell Watson defende a criação de um “projeto Manhattan” para garantir que a IA evolua com segurança e ética, com forte supervisão humana.
Ela alerta que, no futuro, as IAs poderão resolver problemas de maneiras tão complexas que não entenderemos como chegaram às respostas — o que pode ser perigoso.
A encruzilhada da humanidade
A pergunta que fica é: devemos parar o avanço da IA agora ou confiar que conseguiremos controlá-la?
Para Ben Goertzel, é inevitável que a AGI chegue. Então, mais vale nos prepararmos do que tentarmos impedir o inevitável. Afinal, se quisermos vencer essa “corrida”, precisamos acreditar que temos chance de sucesso.
Estamos diante de uma das maiores transformações da história da humanidade. A singularidade pode nos levar a um futuro de abundância e soluções incríveis — ou a um abismo tecnológico sem volta. Cabe a nós decidir que caminho seguir.
