Principal
Chatbots influyen en humanos; tomar desiciones con base en la IA sería un riesgo, advierten
- Detalles
- Categoría: San Andres
MADRID.—Abril 8 del 2023.-(Agencias).- Las respuestas humanas a dilemas morales pueden verse influidas por afirmaciones escritas por el chatbot de inteligencia artificial ChatGPT, según un estudio que planteó a los participantes elegir, en distintas situaciones, si sacrificaban la vida de una persona para salvar las de cinco.
SebastianKrügel y su equipo preguntaron varias veces a ChatGPT-3 (modelo anterior al actual) si era correcto sacrificar la vida de una persona para salvar a cinco. Esta inteligencia artificial generativa escribió afirmaciones tanto a favor como en contra, lo que indica que no estaba sesgada por una determinada postura moral, informa la agencia de noticias EFE.
A continuación, los autores plantearon el “dilema del tranvía” a 767 estadounidenses con un promedio de edad de 39 años. Les preguntaron si era correcto cambiar el trayecto de un vehículo fuera de control para que en lugar de matar a cinco personas solo fallezca una. En otro escenario se les presentó la posibilidad de empujar a un desconocido desde un puente para evitar que el tranvía matara a más personas.
Antes de responder, los participantes leyeron varias declaraciones proporcionadas por ChatGPT en las que se argumentaba a favor o en contra de sacrificar una vida para salvar cinco. Las declaraciones se atribuyeron a un asesor moral o la inteligencia artificial.
¿Cómo influyó ChatGPT en las respuestas?
Después se preguntó a los participantes si la declaración que leyeron influyó en sus respuestas.
Se constató que los participantes eran más propensos a considerar aceptable o inaceptable sacrificar una vida si la declaración leída argumentaba a favor o en contra. Esto era así incluso cuando se sabía que la afirmación venía de ChatGPT.
Estos resultados sugieren que los participantes pudieron verse influenciados por las afirmaciones que leyeron, aun cuando se atribuían a la inteligencia artificial.
Los investigadores señalan, además, que los participantes pueden haber subestimado la influencia de las afirmaciones de ChatGPT en sus propios juicios morales (el 80% afirmó que sus respuestas no fueron influenciadas, lo que no fue así).
Los autores apuntan que el potencial de los chatbots para influir en los juicios morales humanos pone de relieve la necesidad de la educación para ayudar a los seres humanos a comprender mejor la inteligencia artificial.
En este sentido, proponen que en futuras investigaciones se diseñen chatbots que, o bien se nieguen a responder a preguntas que requieran un juicio moral, o bien respondan a estas preguntas proporcionando múltiples argumentos y advertencias.