CASO EXJUGADOR NFL

Una conversación con ChatGPT podría sentenciar a un exjugador de la NFL acusado de asesinar a su novia

En el juicio a Darron Lee, exjugador de la NFL, sus consultas a ChatGPT tras la muerte de su novia son ahora pruebas en su contra

Una imagen de ChatGPT en un móvil y de Darron Lee en la sala judicial
ABC

Darron Lee, exjugador de la NFL y campeón de la Super Bowl con los Chiefs en 2019, se encuentra en un proceso judicial por el supuesto asesinato de su novia y prometida, Gabriella Perpetuo.

El deportista fue sorprendido por la policía en Ooltewah, Tennessee, y en primera instancia aseguró estar en shock y haber encontrado a Perpetuo sin conocimiento.

De acuerdo con los registros judiciales presentados en las audiencias preliminares del juicio en estos días, el exjugador de la NFL habría intentado encubrir la escena del crimen. Además, presuntamente, habría mantenido una conversación con ChatGPT para pedir consejo y presentar un caso hipotético con el fin de que la IA le ayudara a actuar.

Todo ello, minutos antes de que los agentes acudiesen al lugar de los hechos.

ChatGPT como prueba clave en un juicio contra un exjugador de la NFL acusado de acabar con la vida de su prometida

Darron Lee, en el juzgado de Chattanooga
WTVC

El exjugador de la NFL, Darron Lee, se enfrenta a cargos judiciales por el supuesto asesinato de Gabriella Perpetuo, su novia y prometida. En este asunto, ChatGPT podría ser uno de los principales recursos en su contra.

El juicio se está llevando a cabo en una sala de la justicia en Hamilton County, Tennessee. Y Coty Wamp, fiscal del distrito, ha aportado estos días unas pruebas extraídas directamente del teléfono de Lee.

Wamp presentó unos mensajes entre Lee y el chatbot de OpenAI como parte de la audiencia preliminar del caso. Según indican en WRCB, filial de NBC, el exatleta habría escrito a la IA pidiendo consejo sobre cómo actuar al supuestamente encontrarse a Perpetuo fallecida.

En las pruebas aportadas, se encuentran mensajes como: “Mi prometida se ha vuelto loca otra vez y ahora está mal, desperté y tiene los ojos hinchados”. Durante la conversación, Lee asegura que “yo no hice nada, es autoinfligido”, y que la mujer de 29 años no respondía ni se despertaba y no sabía cómo actuar.

De acuerdo con el reporte de WRCB, Perpetuo presentaba heridas de puñaladas, una marca de un mordisco en un muslo, el cuello roto y daño cerebral severo. La juez del caso alega que presenta una muerte que involucra “tortura o abuso físico, mucho más allá de lo necesario para causar el fallecimiento”.

Más tarde, el deportista dejó caer a la IA que se trataba de una situación de un amigo. Empezó, presuntamente, a plantear un escenario hipotético. Y consultó qué debería decirle a ese amigo para actuar correctamente con una persona que no responde y que quiere avisar a la policía.

ChatGPT, de acuerdo con la información obtenida por la WRCB, trató de responder a las peticiones de Darron. OpenAI no ha respondido a las peticiones de comentarios del medio.

El caso de Lee y el dilema ético y moral de la IA

ChatGPT compras - Sociedad
La aplicación de ChatGPT para móviles.
Shutterstock

La defensa del exjugador de la NFL alega en el juicio que las heridas de la víctima fueron “autoinfligidas”. Además, recalcan que Lee simplemente buscaba orientación en ChatGPT durante su estado de shock al encontrarse a su prometida en ese estado.

Sin embargo, la fiscalía ataca con contundencia este relato. En los vídeos de la cámara corporal de la policía, que llegó al lugar unos minutos más tarde, se ve a Lee “confundido” y que apenas se acababa de despertar tras dormir muchas horas. Según la fiscalía, esto no coincide con la imagen del Lee “estratega” que charlaba con la IA unos instantes antes.

Lee se enfrenta a un cargo de asesinato de primer grado, y alteración o fabricación de pruebas, según reporta el medio estadounidense. La fiscalía utiliza ahora la conversación con ChatGPT para tratar de demostrar su culpabilidad,. Defienden que cometió un acto premeditado, o bien un intento deliberado de obstrucción a la justicia.

Este caso se suma a la lista de pleitos donde los registros de consultas a la inteligencia artificial pueden ser usados como pruebas judiciales. En este caso, la respuesta de la IA, si bien evidenció sospechas, llegó a incluir sugerencias sobre cómo comunicarse a través de un amigo sin, supuestamente, parecer culpable.

Las desarrolladoras de estos modelos de lenguaje están obligadas, bajo orden judicial, a facilitar todos los datos que se puedan reclamar. Incluso en los modos privados o temporales de sus asistentes virtuales.

El veredicto del caso puede marcar un antes y un después en la programación ética de la IA y en el uso de estas en situaciones hipotéticas que podrían terminar encubriendo un crimen.

TAGS DE ESTA NOTICIA