Los dos investigadores de VRAIN de la UPV, José Such y Natalia Criado. EFEUn equipo del grupo de investigación GTI-IA de la Universitat Politècnica de València (UPV), en colaboración con el King's College de Londres, ha realizado un estudio sobre el "razonamiento ético" de la Inteligencia Artificial (IA).
El trabajo desarrolla cómo la IA puede tener en cuenta y agregar diferentes teorías éticas para que su decisión final esté más alineada con lo que las personas consideramos un "comportamiento ético", informa la universidad.
Los investigadores del GTI-IA del Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN) de la UPV han presentado el trabajo en la conferencia anual que organiza la Asociación para el Avance de la Inteligencia Artificial (AAAI) de EEUU, una de las citas internacionales más prestigiosas en este campo.
La conferencia, organizada por la Asociación para el Avance de la Inteligencia Artificial de EEUU (AAAI), selecciona los mejores artículos técnicos sobre avances e investigaciones realizados a nivel mundial en el último año en este campo.
El estudio, titulado "La incertidumbre moral y el problema del fanatismo", ha sido elaborado por los investigadores de VRAIN de la UPV, José Such y Natalia Criado y los colaboradores del King's College London (Reino Unido), Jazon Szabo y Sanjay Modgil.
Desarrolla cómo a través de un formalismo matemático se puede hacer razonar a la inteligencia artificial sobre diferentes puntos de vista y teorías éticas.
"Le estamos diciendo a la IA que, a la hora de decidir, tenga en cuenta y agregue diversos aspectos éticos, no solo una perspectiva ética", señala Such.
De este modo, explica, su decisión final estará más alineada con lo que un mayor número de personas considera ético, y se alejará de que ninguna de las teorías éticas domine desproporcionadamente sobre las otras, que llevaría a la IA a un comportamiento "más fanático".
Con ello, se desarrollan sistemas de inteligencia artificial que sean capaces de alinearse con lo que las personas consideramos que es un "comportamiento ético", detalla el investigador,
Valores humanos
Este artículo técnico está basado en la investigación del proyecto VAE (Value-awareness engineering), cuyo objetivo es desarrollar herramientas y tecnologías para construir sistemas inteligentes que comprendan los valores humanos y garanticen que su comportamiento está alineado con esos valores.
El proyecto está financiado por el Ministerio de Ciencia, Innovación y Universidades y la UE a través de Fondos Next Generation y tiene una duración de dos años.
Su investigadora principal es Natalia Criado, en el equipo formado por Vicent Botti y José Such del grupo GTI-IA de VRAIN de la UPV.
La conferencia AAAI sobre Inteligencia Artificial que se ha celebrado esta semana en Vancouver (Canadá) tiene el objetivo de fomentar el intercambio científico entre profesionales, investigadores, científicos y estudiantes de este campo y sus disciplinas y reúne los trabajos más brillantes en IA a lo largo del año.
Se trata de una de las conferencias con mayor trayectoria en IA, organizada también por una de las asociaciones con mayor historia en esta tecnología.
Los artículos que se presentan en este foro, son muy limitados debido a las exigencias de altos estándares científicos, indican desde la universidad.
Comparte la noticia
Categorías de la noticia