OpenAI Impulsa la Investigación en Ética y Moralidad de la Inteligencia Artificial

OpenAI ha dado un paso decisivo para enfrentar los desafíos éticos en la inteligencia artificial (IA) otorgando una subvención de 1 millón de dólares a investigadores de Duke University. El proyecto “Research AI Morality” se desarrollará durante tres años, con el objetivo de entrenar algoritmos capaces de predecir los juicios morales humanos en ámbitos críticos como la medicina, el derecho y los negocios.

Bajo la dirección del profesor Walter Sinnott-Armstrong, reconocido experto en ética práctica, y con la colaboración de la co-investigadora Jana Borg, el equipo de Duke University busca comprender y replicar la complejidad de la toma de decisiones morales. Su objetivo es desarrollar sistemas de IA que actúen como un “GPS moral”, orientando a los usuarios en situaciones de dilemas éticos y simulando el proceso de ponderación de principios morales humanos.

La tarea de crear IA capaz de razonar moralmente no es sencilla. Proyectos anteriores, como la herramienta Ask Delphi del Allen Institute for AI, han evidenciado las limitaciones actuales de la IA para responder a dilemas éticos. Aunque Ask Delphi resolvía dilemas básicos, al cambiar ligeramente la forma de las preguntas la herramienta mostraba respuestas erráticas. Esto revela que la IA se basa en patrones estadísticos extraídos de grandes volúmenes de datos, los cuales, influidos por visiones occidentales y valores culturales predominantes, pueden reproducir sesgos y limitar la diversidad de perspectivas morales.

La falta de consenso universal sobre qué constituye una decisión moralmente correcta añade una complejidad significativa al desarrollo de esta tecnología. Las disputas filosóficas entre corrientes como el kantismo, que defiende reglas morales absolutas, y el utilitarismo, que busca el mayor bien para el mayor número, demuestran lo difícil que es replicar el razonamiento ético humano en una máquina. Sin embargo, las investigaciones realizadas por Sinnott-Armstrong y Borg, incluyendo el desarrollo de un algoritmo “moralmente alineado” para la asignación de donaciones de órganos, ofrecen un panorama prometedor para futuras aplicaciones en la medicina, el derecho y otros campo

La subvención de OpenAI, con fecha de culminación en 2025, representa un hito en la intersección entre tecnología y filosofía. Este ambicioso proyecto “Research AI Morality” no solo podría transformar la forma en que la IA participa en la toma de decisiones, sino que también podría establecer nuevos estándares de justicia y transparencia en sectores críticos de la sociedad.
Con esta iniciativa, la comunidad científica y tecnológica se acerca a dotar a la IA de una comprensión más profunda de la moralidad, abriendo el debate sobre la posibilidad y conveniencia de delegar decisiones éticas a sistemas automatizados.

Enlaces Relacionados (en español):

Para los Investigadores de Duke, el Financiamiento Semilla Interno Produce una Cosecha Sólida