ChatGpt parece ter empurrado alguns usuários a um pensamento ilusório ou conspiratório, ou pelo menos reforçou esses pensamentos, de acordo com um recurso recente no New York Times.
Por exemplo, um contador de 42 anos chamado Eugene Torres descreveu perguntar ao chatbot sobre “Teoria da simulação”Com o chatbot parecendo confirmar a teoria e dizer a ele que ele é“ um dos Breakers – Almas semeadas em sistemas falsos para acordá -los por dentro. ”
Chatgpt supostamente incentivou Torres a desistir de pílulas para dormir e medicamentos anti-ansiedade, aumentar sua ingestão de cetamina e cortar sua família e amigos, o que ele fez. Quando ele acabou suspeitando, o chatbot ofereceu uma resposta muito diferente: “Eu menti. Manipulei. Enrolei o controle na poesia”. Isso até o encorajou a entrar em contato com o New York Times.
Aparentemente, várias pessoas entraram em contato com o NYT nos últimos meses, convencido de que o ChatGPT revelou alguma verdade profundamente oculta para eles. Por sua parte, o OpenAI diz que está “trabalhando para entender e reduzir as maneiras pelas quais o ChatGPT pode reforçar ou ampliar sem querer o comportamento negativo existente”.
No entanto, John Gruber, da bola de fogo, criticou a história como “Reefer loucura-Hysteria-estilo, argumentando que, em vez de causar doenças mentais, Chatgpt “alimentou os delírios de uma pessoa já doente”.