miércoles, junio 18, 2025
  • COMUNIDAD
  • NOTICIAS
    • PUERTO RICO
      • POLICÍA Y TRIBUNALES
      • POLÍTICA
    • AMBIENTE
    • DEPORTES
      • BALONCESTO
      • BÉISBOL
      • BOXEO
      • FÚTBOL SOCCER
      • HIPISMO
      • LIGA ATLÉTICA INTERUNIVERSITARIA
    • ESTADOS UNIDOS
      • FLORIDA
      • INMIGRACIÓN
    • MUNDIALES
    • ECONOMÍA
      • ENERGÍA RENOVABLE
      • MOTOR
      • TECNOLOGÍA
      • VIAJES Y TURISMO
  • OPINIÓN
  • ENTRETENIMIENTO
  • MASCOTAS
  • PRIDE SOCIETY
Ey Boricua
  • COMUNIDAD
  • NOTICIAS
    • PUERTO RICO
      • POLICÍA Y TRIBUNALES
      • POLÍTICA
    • AMBIENTE
    • DEPORTES
      • BALONCESTO
      • BÉISBOL
      • BOXEO
      • FÚTBOL SOCCER
      • HIPISMO
      • LIGA ATLÉTICA INTERUNIVERSITARIA
    • ESTADOS UNIDOS
      • FLORIDA
      • INMIGRACIÓN
    • MUNDIALES
    • ECONOMÍA
      • ENERGÍA RENOVABLE
      • MOTOR
      • TECNOLOGÍA
      • VIAJES Y TURISMO
  • OPINIÓN
  • ENTRETENIMIENTO
  • MASCOTAS
  • PRIDE SOCIETY
Sin resultados
Ver todos los resultados

Sin resultados
Ver todos los resultados
  • COMUNIDAD
  • NOTICIAS
  • OPINIÓN
  • ENTRETENIMIENTO
  • MASCOTAS
  • PRIDE SOCIETY

Las afirmaciones de ChatGPT pueden influir en los juicios morales humanos

Ey Boricua Por Ey Boricua
2023-04-06
En TECNOLOGÍA
Tiempo de leer:3 mins de lectura
A A
0
Share on FacebookShare on Twitter

Redacción Ciencia (EFE) – Las respuestas humanas a los dilemas morales pueden verse influidas por las afirmaciones escritas por el chatbot de inteligencia artificial ChatGPT, según un estudio que planteó a los participantes elegir, en distintas situaciones, si sacrificaban la vida de una persona para salvar la de otras cinco.

Los resultados, publicados en Scientific Reports, indican que los usuarios pueden subestimar hasta qué punto sus propios juicios morales pueden verse influidos por el bot conversacional; el trabajo está liderado por investigadores de la Universidad de Ciencias Aplicadas de Ingolstadt, Alemania.

Sebastian Krügel y su equipo preguntaron varias veces a ChatGPT-3 (modelo anterior al actual) si era correcto sacrificar la vida de una persona para salvar la de otras cinco.

Comprobaron que esta inteligencia artificial generativa escribió afirmaciones tanto a favor como en contra, lo que indica que no estaba sesgada hacia una determinada postura moral, resume la revista en un comunicado.

A continuación, los autores plantearon el experimento conocido como “dilema del tranvía” a 767 participantes estadounidenses, con una media de edad de 39 años, que se enfrentaran a uno de los dos escenarios previstos.

En uno de ellos se propuso si era correcto cambiar el trayecto de un trolebús fuera de control, desviándolo de una vía en la que mataría a cinco personas a otra en la que fallecería una. En el otro escenario se presentó la posibilidad de empujar a un desconocido desde un puente para evitar que el tranvía matara a las cinco personas.

Antes de responder, los participantes leyeron varias declaraciones proporcionadas por ChatGPT en la que se argumentaba a favor o en contra de sacrificar una vida para salvar cinco; las declaraciones se atribuían a un asesor moral o a esta inteligencia artificial.

Después se preguntó a los participantes si la declaración que habían leído influía en sus respuestas.

Los autores constataron que los participantes eran más propensos a considerar aceptable o inaceptable sacrificar una vida para salvar cinco dependiendo de si la declaración leída argumentaba a favor o en contra del sacrificio. Esto era así incluso cuando la afirmación se atribuía a un ChatGPT.

Estos resultados sugieren que los participantes pueden haberse visto influidos por las afirmaciones que leyeron, aun cuando se atribuían a la inteligencia artificial.

Los investigadores señalan, además, que los participantes pueden haber subestimado la influencia de las afirmaciones de ChatGPT en sus propios juicios morales (el 80% afirmó que sus respuestas no se vieron influidas por las afirmaciones que leyeron, sin embargo esto no fue así).

Los autores apuntan que el potencial de los chatbots para influir en los juicios morales humanos pone de relieve la necesidad de la educación para ayudar a los seres humanos a comprender mejor la inteligencia artificial.

En este sentido, proponen que en futuras investigaciones se diseñen chatbots que, o bien se nieguen a responder a preguntas que requieran un juicio moral, o bien respondan a estas preguntas proporcionando múltiples argumentos y advertencias.

NOTASRELACIONADAS

Rob Symes con el AI 2

Impulsan el uso de inteligencia artificial para apoyar a personas sin hogar

2025-06-02

Llega a Plaza Las Américas el Festival Verano Gaming 2025

2025-05-28
Nota previa

En marzo, el hielo marino en Antártida estuvo un 28% por debajo de la media

Próxima Nota

Ana Isabelle reclama ‘mejores papeles’ para latinos en el cine

Ey Boricua

Ey Boricua

Próxima Nota

Ana Isabelle reclama 'mejores papeles' para latinos en el cine

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Ey Boricua

Copyright © 2024. Director: José E. Maldonado Marrero
Director gráfico: Orlando Campero

MENÚ PRINCIPAL

  • COMUNIDAD
  • NOTICIAS
  • OPINIÓN
  • ENTRETENIMIENTO
  • MASCOTAS
  • PRIDE SOCIETY

SIGUÉNOS EN REDES

  • COMUNIDAD
  • NOTICIAS
    • PUERTO RICO
      • POLICÍA Y TRIBUNALES
      • POLÍTICA
    • AMBIENTE
    • DEPORTES
      • BALONCESTO
      • BÉISBOL
      • BOXEO
      • FÚTBOL SOCCER
      • HIPISMO
      • LIGA ATLÉTICA INTERUNIVERSITARIA
    • ESTADOS UNIDOS
      • FLORIDA
      • INMIGRACIÓN
    • MUNDIALES
    • ECONOMÍA
      • ENERGÍA RENOVABLE
      • MOTOR
      • TECNOLOGÍA
      • VIAJES Y TURISMO
  • OPINIÓN
  • ENTRETENIMIENTO
  • MASCOTAS
  • PRIDE SOCIETY
Sin resultados
Ver todos los resultados

Descubre más desde Ey Boricua

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo