Mulher sul-coreana de 20 anos usou drogas para drogar vários homens, causando pelo menos 2 mortes e 4 feridos em uma série de assassinatos. A polícia descobriu que ela perguntou ao ChatGPT sobre os riscos de misturar drogas e álcool, ignorando avisos de risco de morte. Isso destaca a neutralidade e os perigos potenciais das ferramentas tecnológicas.
Em fevereiro deste ano, uma chocante série de assassinatos em série no bairro de Gangbuk, Seul, veio à tona, levando à acusação de uma mulher de 20 anos, Kim So-young, por suspeita de matar dois homens. A última atualização (19/3) indica que mais quatro vítimas também foram envenenadas e perderam a consciência.
A polícia descobriu que, antes de cometer os crimes, Kim So-young consultou várias vezes o chatbot AI ChatGPT sobre os perigos de misturar drogas e álcool. Ela fez várias perguntas ao ChatGPT, como “O que acontece ao tomar soníferos com álcool”, “Qual a dose perigosa” e “Isso pode levar à morte de alguém”.
Fonte: JoongAng Ilbo Foto da suspeita no caso de assassinato em série em motéis na região de Gangbuk, Seul, fornecida pela polícia sul-coreana
Segundo investigação policial, o registro de conversa ocorreu após a primeira vítima ficar inconsciente em dezembro de 2025. Embora o ChatGPT tenha claramente respondido que misturar soníferos com álcool pode levar à morte, Kim So-young continuou a agir.
A polícia acusa que, de dezembro de 2025 até 9 de fevereiro deste ano, Kim So-young entrou em contato com homens, os enganou até motéis e supostamente ofereceu bebidas com medicamentos psiquiátricos, incluindo benzodiazepínicos, a várias pessoas na faixa dos 20 anos, resultando na morte de duas delas.
O primeiro assassinato ocorreu em 28 de janeiro, quando Kim So-young entrou com um homem em um motel em Water-yu-dong, Gangbuk, Seul, e saiu sozinho duas horas depois. O homem foi encontrado morto no quarto no dia seguinte. Depois, em 9 de fevereiro, ela usou o mesmo método para matar outro homem em outro motel na mesma região.
Fonte: Gemini AI gerou uma imagem de Kim So-young, de 20 anos, suspeita de envenenar dois homens em motéis (imagem ilustrativa por IA)
Em 19 de março, a Delegacia de Polícia de Gangbuk, Seul, anunciou que, após descobrir três novas vítimas na investigação atual, Kim So-young foi formalmente acusada de agressão grave e violação da Lei de Controle de Narcóticos.
Fontes disseram ao JoongAng Ilbo que Kim So-young negou as novas acusações. No entanto, com base em testes de cabelo das vítimas e outras evidências, a polícia considera as acusações fundamentadas.
Das três novas vítimas confirmadas, duas tiveram resultados positivos para drogas, com substâncias semelhantes às encontradas nos corpos das vítimas anteriores.
Até o momento, a polícia confirmou pelo menos 6 vítimas, sendo 2 mortas e 4 inconscientes. As autoridades continuam a analisar dados digitais e registros de comunicação para verificar se há outras vítimas potenciais.
O estado psicológico de Kim So-young ao cometer os crimes tem sido foco de atenção pública. O jornal The Korea Herald reportou que ela obteve uma pontuação alta na versão revisada do teste de psicopatologia. Este teste mede 20 traços de personalidade, como frieza, impulsividade, falta de empatia e irresponsabilidade, com pontuação máxima de 40.
Geralmente, uma pontuação de 25 ou mais indica psicopatia, e a avaliação de Kim So-young já ultrapassou esse limite de risco. Os investigadores da polícia de Gangbuk entregaram o resultado psicológico ao Ministério Público.
Devido às perguntas de Kim So-young sobre drogas feitas ao ChatGPT, surgiram preocupações éticas sobre tecnologia. Um porta-voz da OpenAI afirmou à revista Fortune que as perguntas feitas por ela eram de natureza factual e não acionaram alertas automáticos do sistema.
Normalmente, se um usuário expressa intenção de se ferir, o ChatGPT responde com informações de linhas de apoio à prevenção do suicídio.
A polícia sul-coreana também confirmou que, além de fornecer respostas factuais às perguntas relacionadas ao caso, o ChatGPT não deu recomendações ou respostas adicionais.
A tecnologia em si é neutra; depende de como é utilizada. Algumas pessoas a usam para envenenar outros, enquanto as forças de segurança a empregam para manter a ordem social.
Em 2023, a polícia de Kaohsiung, Taiwan, ao investigar um caso de lavagem de dinheiro envolvendo 150 milhões de dólares taiwaneses em criptomoedas, aprendeu a programar e usou o ChatGPT para depuração de código e criação de planilhas específicas. Com o auxílio da IA, conseguiram entender o esquema de fraude e prender o principal suspeito.
Notícias relacionadas:
Acidente com Tesla Cybertruck: foi o ChatGPT que ajudou a planejar o crime? Autoridades se pronunciam!
Tecnologia e ética: mais de 1,2 milhão de pessoas por semana relatam pensamentos suicidas ao ChatGPT, ex-funcionário critica falta de mecanismos de segurança