Un revuelo se ha desatado en el mundo de la inteligencia artificial, ya que OpenAI se encuentra en el ojo del huracán por una demanda por difamación presentada en su contra. El motivo de esta demanda es nada menos que el popular chatbot de la compañía, ChatGPT, quien presuntamente difundió información falsa que ha causado un daño irreparable a la reputación de un hombre llamado Mark Walters.
El escándalo estalló cuando un periodista solicitó a ChatGPT un resumen de un caso legal. Lo que sucedió a continuación dejó a Walters atónito: el chatbot afirmó categóricamente que estaba involucrado en una demanda por malversación de fondos. Pero aquí viene lo sorprendente: ¡Walters no tenía absolutamente nada que ver con ese caso! La demanda, presentada ante el Tribunal Superior del Condado de Gwinnett, acusa a ChatGPT de difamar a Walters con afirmaciones totalmente falsas. El abogado de Walters sostiene que OpenAI actuó con negligencia al permitir que se difundiera información falsa, lo que resultó en daños significativos a la reputación de su cliente.
Expertos legales afirman que esta demanda podría ser solo la punta del iceberg y que muchas más podrían seguirle. Según ellos, estamos presenciando un punto de inflexión en el ámbito de la inteligencia artificial, donde las empresas podrían enfrentar serios desafíos legales debido a las invenciones de sus productos. Aunque en este caso en particular las bases parecen ser poco sólidas, podría sentar un precedente crucial para futuros casos que exploren los límites de la ley de difamación en relación con la IA.
Walters, la víctima de esta supuesta difamación, no se quedó de brazos cruzados. Él niega rotundamente cualquier relación con la malversación de fondos mencionada por ChatGPT. Afirma que el chatbot simplemente “alucinó” y generó una historia falsa basada en un documento legal real, pero que en ningún momento mencionaba su nombre. Walters sostiene que la difamación causada por ChatGPT ha expuesto su reputación al odio público y al ridículo, algo que no puede ni debe ser ignorado.
Mientras tanto, OpenAI ha reconocido que ChatGPT puede cometer errores y ha prometido trabajar en nuevos modelos para reducirlos. Sin embargo, la compañía ha permanecido en silencio en cuanto a la demanda presentada por Walters. Los expertos legales analizan las posibilidades de éxito de la demanda y concluyen que Walters tendría que demostrar que OpenAI actuó con conocimiento de falsedad o indiferencia temeraria hacia la posibilidad de falsedad para obtener daños punitivos. Aunque en este caso concreto pareciera poco probable, no descartan que otros demandantes puedan tener éxito en el futuro si logran demostrar daños medibles causados por declaraciones falsas difundidas por chatbots de IA.
Este caso no es el primero en el que los chatbots de IA difunden información falsa sobre personas reales. Conocidos como “alucinaciones“, otros casos similares han salido a la luz, donde personas han sido tergiversadas o acusadas falsamente por estos modelos de IA generativa. El hecho de que abogados y profesionales hayan utilizado el programa ChatGPT en contextos profesionales plantea preocupaciones sobre la veracidad de la información generada por la IA y su impacto en la sociedad. Además, estas denuncias se suman a otras controversias, como las relacionadas con la propiedad intelectual.
La demanda presentada por Mark Walters podría ser solo el comienzo de una serie de desafíos legales que podrían sacudir a la industria de la inteligencia artificial. Las empresas deberán enfrentar las consecuencias de sus productos y garantizar que la tecnología de IA se utilice de manera responsable y precisa, evitando así daños innecesarios a la reputación de las personas. El mundo está observando de cerca cómo se desarrolla esta batalla legal y cómo sentará las bases para el futuro de la relación entre la IA y el marco legal.