top of page
capacitación virtual

Inteligencia Artificial y Ética:  OpenAI y el Desarrollo de Algoritmos para Juicios Morales Humanos


En un esfuerzo por integrar consideraciones éticas más profundas en el desarrollo de la inteligencia artificial, OpenAI está financiando un proyecto en la Universidad de Duke que busca entrenar algoritmos capaces de predecir juicios morales humanos. Esta iniciativa, encabezada por el filósofo Walter Sinnott-Armstrong y la investigadora Jana Schaich Borg, tiene como objetivo crear lo que llaman un “GPS moral” para la IA. El proyecto se desarrollará hasta 2025.


El concepto del “GPS moral” implica el desarrollo de sistemas de IA que puedan tomar decisiones éticamente informadas en situaciones complejas. El propósito es ayudar a las máquinas a entender y aplicar principios morales humanos en campos como la medicina, el derecho y los negocios, donde los dilemas éticos son comunes. De esta forma, la inteligencia artificial ofrecería recomendaciones morales basadas en valores y normas humanas.


El principal desafío de este proyecto es la subjetividad de la moralidad, que varía según el contexto cultural, religioso y personal. A pesar de esta complejidad, el equipo de Duke busca diseñar algoritmos que puedan identificar patrones en los juicios morales de las personas y ofrecer soluciones éticas equilibradas.


El desarrollo de esta tecnología podría revolucionar cómo se diseñan y aplican sistemas de IA, asegurando que sus decisiones no solo sean eficientes, sino también éticamente responsables. Además, este proyecto subraya la importancia de abordar el sesgo y la falta de representatividad en los sistemas actuales, fomentando un enfoque más inclusivo y ético.


OpenAI, reafirma su compromiso con el desarrollo seguro y ético de la inteligencia artificial, promoviendo una visión de la tecnología que prioriza el bienestar humano y la justicia.


Comentários


bottom of page