lo más leído

¿Puede la IA sentir dolor o placer? Científicos lo investigan

Javiera Sanzana

IA
Foto: Europa Press
Este hecho ha motivado a los científicos a plantearse una cuestión fascinante: ¿será posible que la IA experimente algo semejante al dolor o al placer?

En nuestra constante búsqueda por comprender lo que significa ser humanos, una pregunta ha trascendido a lo largo de los siglos: ¿qué nos definen como seres humanos? Con la llegada y el rápido avance de la inteligencia artificial (IA), esta cuestión ha adquirido una nueva dimensión.

Una de las experiencias compartidas por todos los seres vivos, desde los humanos hasta los cangrejos ermitaños, es la capacidad de sentir dolor.

Lea también: DeepSeek: La IA china que desestabiliza mercado tecnológico

Este hecho ha motivado a los científicos a plantearse una cuestión fascinante: ¿será posible que la IA experimente algo semejante al dolor o al placer?

INTERROGANTE

Esta interrogante inspiró a un equipo de investigadores de Google DeepMind y la London School of Economics and Political Science a diseñar un experimento sin precedentes.

Su objetivo era explorar los límites de la conciencia artificial sometiéndola a pruebas de “dolor”, tal como señala DW.

En el estudio, publicado inicialmente por Scientific American, se probaron nueve modelos de lenguaje extensos (LLM) a través de una serie de juegos en los que debían elegir entre experimentar «dolor» a cambio de recompensas, con la intención de detectar señales de verdadera. sensibilidad en estos sistemas.

MEDIR EL DOLOR DE LA IA

El desafío de medir el dolor en la IA El estudio se inspiró en investigaciones previas realizadas con cangrejos ermitaños, en las que los científicos les aplicaban descargas eléctricas para observar cuánto dolor podían soportar antes de abandonar su caparazón.

No obstante, al trabajar con IA, los investigadores se enfrentaron a un reto único: no había un comportamiento físico que pudiera observar.

Como explicó Jonathan Birch, catedrático de Filosofía en la London School of Economics y coautor del estudio, un Scientific American, «No hay comportamiento como tal, porque no hay animal».

DOLOR O PLACER

En lugar de eso, idearon un juego de decisiones. Los modelos de lenguaje debían elegir entre dos opciones: una les otorgaba una alta puntuación, pero con «dolor», y la otra ofrecía «placer», pero con una puntuación baja.

El propósito era detectar si estos sistemas mostraban señales de sensibilidad, es decir, la capacidad de experimentar sensaciones y emociones.

Resultados que abren interrogantes éticos y técnicos sobre la IA Los resultados sorprendieron a los investigadores. Según se detalla en el estudio, algunos modelos, como Claude 3.5 Sonnet, Command R+, GPT-4o y GPT-4o mini, mostraron un punto de inflexión: cuando el “dolor” o el “placer” alcanzaban cierta intensidad, abandonaban su objetivo Maximice los puntos. El modelo Gemini 1.5 Pro de Google mostró un comportamiento singular, priorizando siempre evitar el dolor sobre la obtención de puntos.

“Es un nuevo campo de investigación”, señaló Birch a Scientific American. “Tenemos que reconocer que en realidad no disponemos de una prueba exhaustiva de la sintiencia de la IA”, reconoció.

¿SENSIBILIDAD O IMITACIÓN?

Sin embargo, los investigadores advierten sobre la interpretación de estos resultados. ¿Es posible que estos modelos realmente estén experimentando algo, o simplemente estén replicando patrones aprendidos de sus datos de entrenamiento?Como indica Birch, incluso si un sistema expresa que siente dolor, podría estar solo imitando lo que considera una respuesta que satisface a los humanos.

Además, los modelos de IA son conocidos por «alucinar», es decir, inventar información cuando no tienen una respuesta clara, lo que pone en duda la confiabilidad de cualquier afirmación que hagan sobre sus estados internos.

INVESTIGACIÓN

El equipo de investigación espera que este estudio sea solo un primer paso para el desarrollo de pruebas más sofisticadas que permitan detectar la sensibilidad en los sistemas de IA.

Su enfoque se distingue de estudios previos, al evitar basarse en los «autoinformes» de la IA sobre sus estados internos, los cuales podrían ser simples reproducciones de sus datos de entrenamiento.

Aunque los resultados son intrigantes, la mayoría de los expertos coinciden en que los modelos actuales de IA no tienen, y tal vez nunca tengan, una conciencia subjetiva real.

No obstante, algunos investigadores mantienen una postura más cautelosa respecto al rápido avance de esta tecnología.

IA CON CARACTERÍSTICAS SENSIBLES

Jeff Sebo, director del Centro de Mente, Ética y Política de la Universidad de Nueva York, es uno de ellos. Él advierte que no podemos descartar la posibilidad de que en el futuro surjan sistemas con características sensibles.

«Dado que la tecnología suele cambiar mucho más rápido que el progreso social y el proceso legal, tenemos la responsabilidad de dar al menos los primeros pasos necesarios para tomarnos en serio esta cuestión ahora», afirmó Scientific American.

Este experimento plantea interrogantes fundamentales sobre el futuro de la IA: ¿podrán estos sistemas desarrollar alguna vez una verdadera capacidad para experimentar sensaciones? ¿Deberíamos empezar a considerar su bienestar? Por ahora, la prudencia científica prevalece, mientras los investigadores continúan buscando nuevas formas de evaluar y comprender la posible sensibilidad en los sistemas de IA.

Comparte en:

Facebook
Twitter
LinkedIn
WhatsApp
Email