ChatGPT es conocido por difundir información errónea, pero este es el primer caso de difamación de OpenAI.
La información errónea de ChatGPT condujo al primer caso de difamación de OpenAI.
Después de que ChatGPT acusó al locutor de radio de Georgia, Imprint Walters, de defraudar y robar a una organización sin fines de lucro, Walters presentó una demanda. El sistema respondió a una solicitud del periodista Fred Riehl. Walters demandó a OpenAI el 5 de junio en el Unrivaled Court of Gwinnett District de Georgia por daños financieros no revelados.
Este problema se destaca debido a las preocupaciones de ChatGPT y otros chatbots con respecto a la información engañosa. Estos sistemas comúnmente crean fechas, cifras y hechos cuando se les pide información, especialmente cuando se les pide que validen lo que el interrogador sugiere que es cierto.
Estas fabricaciones generalmente confunden a las personas o les hacen perder el tiempo. Tales errores ahora duelen. Un abogado que usó ChatGPT para estudiar asuntos judiciales falsos y un profesor que creía que sus alumnos usaban IA para crear sus ensayos amenazaron con reprobar sus clases. El abogado le dijo a un juez: Pensé que este nuevo sitio web era un motor de búsqueda maravilloso hasta que me enteré.
La página web ChatGPT de OpenAI advierte que el algoritmo "ocasionalmente puede generar información incorrecta". Sin embargo, la corporación anuncia ChatGPT como una fuente de datos creíble para "obtener respuestas" y "aprender algo nuevo". En numerosos compromisos, el jefe de OpenAI, Sam Altman, ha afirmado que prefiere los datos de ChatGPT a los libros.
No está claro si esta queja tiene validez o si existe un precedente para responsabilizar a una empresa por los sistemas de inteligencia artificial que producen material inexacto o difamatorio.
La Sección 230 protege a las corporaciones de Internet de EE. UU. de la responsabilidad legal por el contenido de terceros publicado en sus plataformas. Estas precauciones no se aplican a los sistemas de IA, que se vinculan a fuentes de datos y generan nueva información, incluidos datos engañosos.
La acción de difamación de Georgia de Walters puede desafiar esta fundación. En el caso, Fred Riehl, un periodista, le pidió a ChatGPT que se conectara a un PDF que resumía un caso judicial federal real. ChatGPT respondió con un resumen del caso detallado y persuasivo pero inexacto. La lista de ChatGPT incluía hechos precisos y acusaciones falsas de Walters. Walters tomó "más de $ 5,000,000,000" de la Fundación de la Segunda Enmienda, un grupo de derechos de armas. Walters nunca ha sido acusado.
Riehl nunca compartió las estadísticas engañosas de ChatGPT. La investigación de Walters sobre este fraude no es satisfactoria.
A pesar de resumir el PDF de Riehl, ChatGPT no puede acceder a datos externos sin complementos. La incapacidad del sistema para alertar a Riehl muestra su engaño. "Me disculpo, pero como modelo basado en texto de IA, no puedo abrir o acceder a archivos PDF particulares u otros documentos externos", dijo cuando The Edge usó el marco hoy en una tarea similar.
En una publicación de blog, el profesor de regulación Eugene Volokh escribió que "tales afirmaciones calumniosas [contra compañías de inteligencia creadas por el hombre] son legalmente razonables en un nivel fundamental", pero esta afirmación específica "debería ser difícil de seguir". Volokh señala que Walters no le dijo a OpenAI sobre estas explicaciones engañosas, lo que les permitió borrarlas y, por lo tanto, el resultado de ChatGPT no causó ningún daño real. "De todos modos, será fascinante ver qué sucede finalmente aquí", dice Volokh.

Publicar un comentario