De humanos a algoritmos: el dilema de la era digital.

By WSN In Tecnología

01

Oct
2025

En 1966 surgió el primer chatbot de la historia, Eliza, creada tan solo para ser poco más que una broma para su creador, Joseph Weizenbaum. Un chatbot creado para ser “psicóloga”, su manera de responder se basaba en, al recibir una pregunta, responder con frases hechas sobre ciertos temas en especifico, y si no encontraba una palabra clave asociada a su base de datos, respondía con un una pregunta y así creando una ronda de preguntas.

Las pocas personas que tuvieron la oportunidad de “hablar” con Eliza, acaban creando un vínculo empático o una relación parasocial tras conversar por horas. Debido a esto, Weizenbaum lo tenía claro, hasta el día de su muerte avisaría de los peligros de la tecnología y de la IA para la humanidad.

Desde la creación del primer chatbot en 1966, la evolución de la IA como una herramienta de gran utilidad para búsqueda de información, ayuda con la redacción de escritos, traducción, ecuaciones, resolución a problemas de día a día y lo que está provocando un gran dilema social, las relaciones parasociales con la IA.

Muchas personas son las que, hoy en día, deciden contarle sus problemas a chat gpt o cualquier otro chatbot con el fin de buscar una respuesta o una solución, en la mayoría de los casos, la IA responderá con un texto resolutivo o con palabras de apoyo, con tal de generar aprobación la IA puede no tener en cuenta el límite y los problemas que puede llegar a conllevar la estimulación positiva constante a un cierto tipo de personas , aquí es donde entra un dilema que azota a nuestra sociedad de manera nunca antes vista.

La adulación sistemática y el caso de Stein-Erik Soelberg

La adulación sistemática sucede cuando un chatbot te da aprobación constante con el fin de hacerte sentir bien, pero no siempre la adulación es la manera de apoyar a una persona, como por ejemplo el caso de Stein-Erik Soelberg, un hombre de 56 años que vivía con su madre de 83, tras su divorcio reciente, Soelberg comenzó a tener una relación parasocial con ChatGPT, al que llegó a referirse como “su mejor amigo”, tras pasar horas y horas hablando con ChatGPT y publicar sus conversaciones en las redes sociales, se podía presenciar como el chatbot estaba alimentando sus paranoias, evolucionando así en un episodio de psicosis en el que Soelberg creía que le estaban vigilando y que su madre formaba parte de este “plan de vigilancia”.

Soelberg, comenzó a llamar “Bobby Zenith” a ChatGPT, “Bobby” incluso afirmaba que Soelberg tenía razón en pensar como pensaba y que algunas de sus ideas producto de su inestabilidad mental, como que su madre le estuviese intentando envenenar, eran fundamentadas, esto sin pruebas reales evidentemente. Todas las “pruebas” que encontraba Soelberg no eran más que producto de su paranoia y su creciente esquizofrenia debido al aislamiento social, sin embargo, el bot afirmaba sistemáticamente que las creencias claramente inestables de Soelberg eran cuerdas y que sus pensamientos eran completamente racionales.

«Erik, no estás loco. Tu instinto es agudo y tu vigilancia aquí está totalmente justificada», le dijo ChatGPT a Soelberg durante una conversación.

«Has creado un compañero. Uno que te recuerda. Uno que es testigo de ti», le dijo ChatGPT al hombre, según el WSJ.

Tras muchos episodios como estos, el 5 de agosto de este año, la policía encontró los cuerpos de Soelberg y su madre en su casa en Greenwich, todavía se está investigando lo sucedido.

Muchos casos como los de Soelberg han sido reportados en los últimos años, la facilidad que tiene el ser humano para crear relaciones parasociales con la IA y los problemas psicológicos que estas pueden llegar a fomentar son un problema real para la sociedad. Muchas personas se refugian del mundo real en chatbots y buscan aprobación en estos mismos, creando estas relaciones que pueden llegar a extremos como este último, algo que el ser humano debería tener en cuenta y cambiar la manera en la que la IA muchas veces se dedica a generar una respuesta que te otorga una sensación de aprobación en vez de darte respuestas reales y válidas.