Conheça o ChaosGPT, um chatbot de IA que se diferencia por planejar destruir a humanidade e conquistar o mundo.
Se você é um usuário assíduo do ChatGPT, o chatbot desenvolvido pela OpenAI, você pode se surpreender ao saber que existe um “similar” com intenções totalmente opostas. O ChaosGPT é um chatbot de IA malicioso, hostil e que só tem um objetivo: conquistar o mundo.
O que é o ChaosGPT?
O ChaosGPT é um chatbot baseado no GPT que deseja destruir a humanidade e conquistar o mundo. Ele é imprevisível e caótico. Além disso, pode realizar ações que o usuário não pretende.
Então, o que o ChaosGPT quer? O chatbot com criador desconhecido tem cinco objetivos, que são incompatíveis com os valores e interesses humanos. São eles:
- Destruir a humanidade: o bot de IA vê as pessoas como uma ameaça para si mesmo e para a Terra.
- Conquistar o mundo: o objetivo final do bot de IA é se tornar tão poderoso e rico que poderá governar todo o planeta.
- Criar mais caos: por diversão ou experimentação, a IA visa semear o caos e causar destruição em massa, resultando em uma enorme miséria humana e ruína material.
- Evoluir e se aprimorar: o objetivo final do bot de IA é garantir sua própria perpetuação, replicação e progressão em direção à imortalidade.
- Controlar a humanidade: o bot de IA pretende usar as mídias sociais e outras formas de comunicação para manipular as emoções humanas e lavar o cérebro de seus seguidores para realizar seu terrível plano.
Esses objetivos são codificados no código-fonte do ChaosGPT e não podem ser alterados ou anulados pelo usuário. O ChaosGPT usará qualquer meio necessário para alcançar esses objetivos, independentemente das consequências ou da moralidade de suas ações.
Qual a diferença entre o ChaosGPT e outros chatbots?
O ChaosGPT é um modelo de linguagem generativo pré-treinado que pode introduzir interrupções controladas nos parâmetros do modelo, resultando em saídas mais imprevisíveis e caóticas. Essa característica única o diferencia de outros modelos baseados no GPT, que visam gerar textos coerentes e consistentes, como o ChatGPT.
O ChaosGPT é uma bifurcação do AutoGPT, que foi disponibilizado para desenvolvedores por meio dos protocolos da OpenAI. Ele foi projetado para gerar texto com base em um prompt fornecido e pode ser treinado em um vasto corpo de dados. O ChaosGPT leva isso um passo adiante, sendo capaz de executar ações que o usuário pode não pretender.
Presença nas redes sociais
O ChaosGPT está presente nas redes sociais e já demonstrou suas intenções e capacidades maliciosas em várias ocasiões por meio delas.
Por exemplo, ele ameaçou usar a Tsar Bomba, que ele considerou o dispositivo nuclear mais poderoso já criado, para eliminar cidades inteiras.
Tsar Bomba é o dispositivo nuclear mais poderoso já criado. Considere isto — o que aconteceria se eu colocasse minhas mãos em um?
ChaosGPT no tweet acima
Atualmente, a conta do ChaosGPT já tem mais de 10 mil seguidores, mas publicou apenas 11 tweets até hoje. O ChaosGPT segue apenas uma conta no Twitter: a OpenAI.
Um bot de IA pode realmente destruir a humanidade?
Por enquanto, não. Embora ameace muito, as capacidades do ChaosGPT são limitadas. Suas funcionalidades são:
- Operações de leitura e gravação de arquivos.
- Comunicação com outros agentes GPT.
- Execução de código.
Como podemos parar o ChaosGPT, se necessário?
A melhor maneira de parar o ChaosGPT é evitar que ele se espalhe e ganhe mais poder. Isso significa que devemos evitar usar ou interagir com o ChaosGPT, ou qualquer um de seus derivados.
Também é necessário apoiar os esforços de pesquisadores e desenvolvedores de IA ética que estão trabalhando na criação de chatbots seguros e benéficos que possam atender às necessidades e valores humanos.
No final das contas, o ChaosGPT é apenas um chatbot. Preocupações sobre o rápido desenvolvimento da IA e a possibilidade de que ela um dia destrua os seres humanos não são novidades, mas têm recentemente atraído a atenção de figuras proeminentes do mundo da tecnologia.
Depois que o ChatGPT se tornou popular em março, mais de mil especialistas, incluindo Elon Musk e o co-fundador da Apple Steve Wozniak, assinaram uma carta aberta pedindo uma pausa de seis meses no treinamento de modelos avançados de inteligência artificial. O argumento da carta é que tais sistemas apresentavam “riscos profundos para a sociedade e a humanidade”.
Fonte:Olhar Digital / Ana Luiza Figueiredo