Nacional y economía

Riesgos de la tecnología que avanza sin reflexión adecuada

David Araya Gálvez es Ph.D en Biofísica y Biología Computacional, investigador del Instituto de Tecnología para la Innovación en Salud y Bienestar UNAB (Itisb-UNAB).

Ph.D en Biofísica y Biología Computacional, investigador del Instituto de Tecnología para la Innovación en Salud y Bienestar UNAB (Itisb-UNAB).

Es importante el estar atentos a descubrir los riesgos éticos y errores sistemáticos de una tecnología que avanza más allá de la reflexión

Recientemente en Bahía Blanca, Argentina, en la 50 Conferencia Latinoamericana de Informática, tuve la oportunidad de intercambiar experiencias en paneles de expertos en Ciencia y Tecnología del continente, presentando resultados de investigaciones y reflexionando acerca de su impacto y contribución a la sociedad.

Como participante, tuve la oportunidad de escuchar a Ricardo Baeza-Yates, una figura muy destacada en el campo de la inteligencia artificial, cuyas ideas han generado un gran aporte para la ciencia y quien fuera reconocido hace algunos días con el Premio Nacional de Ciencias Aplicadas y Tecnológicas que se entrega anualmente en Chile.

En un momento donde la inteligencia artificial experimenta un auge sin precedentes, capaz de revolucionar todos los ámbitos de la sociedad, la charla de Ricardo Baeza-Yates nos ofreció un cable a tierra, proporcionando una perspectiva crítica y necesaria ante tanto entusiasmo.

Él nos hace presente las sombras que a menudo se pasan por alto en el desarrollo acelerado de la IA, destacando los riesgos éticos y los errores sistemáticos que pueden surgir cuando la tecnología avanza sin una reflexión adecuada.

Abordó los riesgos de los modelos de lenguaje de gran escala (LLM), como chatgpt comparándolos con loros que repiten sin entender, por ejemplo, mostró cómo al ser consultados sobre su persona, estos modelos pueden generar respuestas inventadas y datos falsos.

Nos entrega un mensaje muy importante que es no antropomorfizar estas herramientas de IA porque no son humanos, por ejemplo, no deberíamos hablar de que la” IA dijo”, que “la IA piensa” que la “IA alucina”.

Además, el científico nos presentó varios ejemplos en los que la IA se ve afectada por sesgos o se utiliza para respaldar pseudociencias, lo cual destaca aún más los peligros de una práctica tecnológica no regulada.

En su exposición resaltó la necesidad urgente de emplear un marco ético y regulatorio sólido para la IA, puesto que la ética en IA es central para asegurar desarrollos responsables y sostenibles.

Como experto en IA responsable, Ricardo Baeza Yates está activamente involucrado en muchas iniciativas, comités y consejos consultivos alrededor del mundo como la Global AI Ethics Consortium, la Global Partnership on AI, la iniciativa fAIr LAC del BID (Latinoamérica y el Caribe). También es co-fundador de OprIA en Chile, una ONG para el uso transparente e inclusivo de algoritmos, y miembro del comité editorial del nuevo AI and Ethics Journal y es co-autor de un artículo que enfatiza la importancia de la libertad de la investigación sobre la ética de la IA.

Compartir este espacio con Ricardo, además de ser enriquecedor, me permitió apreciar su humildad y dedicación, lo que reafirma la importancia de su mensaje para todos quienes nos dedicamos a la investigación.

Comparte en:

Facebook
Twitter
LinkedIn
WhatsApp
Email

Comenta este artículo