Ética

Un juez federal en EE.UU. dictamina que hablar con Claude sobre tu caso legal no es confidencial

El fallo en el caso Heppner establece que los documentos generados con IA no gozan de privilegio abogado-cliente. Más de una docena de grandes despachos ya han revisado sus contratos con clientes.

Gonzalo
IA en derecho

Bradley Heppner, expresidente de la firma financiera GWG Holdings, se enfrentaba a cargos de fraude de valores y fraude electrónico. Antes de ser arrestado, y después de recibir una citación del gran jurado, hizo lo que muchos profesionales hacen hoy: abrió Claude, introdujo los detalles de su situación legal y pidió ayuda para preparar su defensa.

Generó 31 documentos. Compartió los resultados con sus abogados. Y cuando los fiscales los reclamaron, sus defensores argumentaron que estaban protegidos por el privilegio abogado-cliente.

El juez Jed Rakoff, del Tribunal de Distrito del Distrito Sur de Nueva York, discrepó. En su opinión escrita del 17 de febrero de 2026, Rakoff desmanteló el argumento de privilegio punto por punto. Primero: Claude no es un abogado. El privilegio solo protege comunicaciones con abogados. Segundo: no existía expectativa razonable de privacidad, porque la política de privacidad de Anthropic advierte explícitamente que la compañía puede compartir información de usuarios si hay un litigio. Tercero: el propio Claude incluye avisos que desaconsejan tratar sus respuestas como asesoramiento legal y recomiendan consultar a un profesional cualificado. Dorsey

«No existe ninguna relación abogado-cliente, ni podría existir, entre un usuario de IA y una plataforma como Claude», escribió Rakoff. The Daily Record

Por qué el fallo tiene más alcance que el caso concreto

El razonamiento del juez no es específico de Claude ni de Anthropic. Es una declaración sobre la naturaleza jurídica de los chatbots de IA en general. Si aplicamos la misma lógica a ChatGPT, Gemini o cualquier otro asistente de IA de uso público, el resultado sería idéntico: ninguno de ellos puede ser considerado parte de una relación confidencial privilegiada.

Más de una docena de grandes despachos de abogados en Estados Unidos han emitido avisos a sus clientes desde que se hizo pública la resolución. Theoutpost El mensaje es uniforme: cualquier información sensible introducida en un chatbot público puede ser reclamada por la parte contraria en un litigio, porque al introducirla estás efectivamente compartiéndola con una tercera parte, que es la plataforma.

El mismo día del fallo, un juez en Michigan llegó a una conclusión diferente en un caso similar. El magistrado Anthony Patti decidió que una demandante que se representaba a sí misma no tenía que entregar sus conversaciones con ChatGPT sobre su caso laboral, porque las trató como su propio «work product» para el litigio, no como comunicaciones con un tercero. «ChatGPT y otros programas de IA generativa son herramientas, no personas», escribió Patti. The Daily Record

Dos jueces, el mismo día, dos conclusiones distintas. El derecho todavía no ha resuelto esto.

El «privilegio abogado-cliente» es una protección jurídica que impide que las comunicaciones privadas entre un abogado y su cliente puedan ser usadas como prueba en su contra. Es uno de los pilares del derecho a la defensa. El fallo Heppner establece que compartir información sensible con una plataforma de IA pública elimina esa protección, porque la plataforma actúa como tercero al que se ha revelado el contenido.

Las implicaciones prácticas que los despachos ya están aplicando

El fallo enseña que la IA puede ser una herramienta poderosa en litigios, pero es preferible que la utilicen abogados en entornos cerrados y seguros diseñados específicamente para mantener la confidencialidad. De lo contrario, el usuario puede acabar generando sin saberlo el principal elemento de prueba en su contra. Dorsey

En términos concretos: si eres abogado o trabajas en un departamento legal, la recomendación que circula esta semana entre los despachos es no introducir en plataformas de IA públicas información relacionada con casos activos o potenciales. Si usas herramientas de IA, que sean versiones enterprise con contratos de confidencialidad explícitos que protejan los datos del cliente. Y si eres un cliente con un problema legal, que lo que le expliques a tu chatbot no sea algo que no querrías ver como prueba en un tribunal.

El caso Heppner es el primero de este tipo en Estados Unidos. No será el último.

Fuentes

EtiquetasAnthropicClaudeRegulaciónDerecho IA

En la elaboración de este artículo se ha utilizado inteligencia artificial como apoyo en la investigación y redacción. El contenido ha sido revisado editorialmente antes de su publicación.

Seguir leyendo