En Estados Unidos, así como en México y en otras partes del mundo, la abogacía es una profesión regulada que tan solo pueden ejercer quienes han estudiado Derecho y aprobado todo tipo de exámenes. En México basta con aprobar la licenciatura y tener título; pero en Estados Unidos hay que aprobar adicionalmente los exámenes de los Colegios de cada estado y son los abogados quienes conforman instituciones a las que les llaman “Barras de abogados”. Así que deben aprobar el examen de la Barra que les otorga autorización para ejercer en un lugar determinado, lo que significa que pueden representar clientes. Al tratarse de una materia altamente sensible que puede afectar la libertad o patrimonio, es algo muy serio, así como caro y, a veces, inaccesible.
Es por eso que uno de los usos más habituales de la Inteligencia Artificial es consultar situaciones legales o incluso pedir redacciones como escritos para presentar ante un juez, bajo la estricta solicitud de cada usuario según el prompt o instrucciones dadas. Usualmente, ChatGPT advierte que la información que da debe ser verificada con un abogado real, uno humano. Pero igualmente, da la información aun bajo distintas fuentes que prueban como es que esa plataforma se inventa jurisprudencias y leyes inexistentes con tal de dar la razón al usuario. Ya existen multas tanto en Estados Unidos como en otros países que sancionan principalmente a los abogados defensores por usar IA citando legislación y jurisprudencia inexistente.
Pero por primera vez se abre el debate sobre el cliente o usuario final directo y sus implicaciones al pedir asesoría legal a la IA y actuar por sí mismo en juicio, solo con las respuestas que estos grandes y erráticos modelos de lenguaje pueden dar. Dos acontecimientos interesantes sobre esto pasan ahora mismo:
En San Luis Potosí, el abogado José Mario de la Garza, fundador de Perteneces A.C., presentó una iniciativa ciudadana ante el Congreso del Estado para regular cómo debe reaccionar el derecho frente al avance de la Inteligencia Artificial cuando empieza a ocupar espacios tradicionalmente reservados a profesiones que implican responsabilidades directas sobre la vida, el patrimonio o la libertad de las personas. El argumento central es sencillo pero profundo: la tecnología avanza a un ritmo vertiginoso, mientras que el derecho suele moverse con lentitud institucional, y esa brecha no puede seguir ampliándose.
El punto crítico no está en la existencia de la Inteligencia Artificial, sino en el uso que se pretende darle. El problema surge cuando se intenta convertir estas herramientas en sustitutos de profesiones reguladas sin asumir las obligaciones que dichas profesiones implican: formación rigurosa, responsabilidad jurídica, ética profesional y la capacidad de responder por los daños que eventualmente puedan causarse. Una máquina puede producir respuestas; lo que no puede hacer es asumir las consecuencias de ellas.
De ahí que la discusión sea más profunda que un simple debate tecnológico. Si la sociedad permite que la innovación rompa la cadena de responsabilidad humana, lo que se pone en riesgo no es únicamente la regulación de una herramienta digital, sino la confianza pública en profesiones que existen precisamente para proteger derechos fundamentales. Regular la Inteligencia Artificial, desde esta perspectiva, no significa detener el progreso, sino asegurarse de que el progreso no se construya sin responsabilidad. Ese es, en esencia, el planteamiento que él ha hecho públicamente, y la iniciativa puede consultarse en su perfil de X.
El segundo caso ocurre en Estados Unidos y abre un frente aún más delicado. La empresa aseguradora japonesa Nippon Life Insurance Company presentó una demanda contra la compañía tecnológica OpenAI al considerar que su chatbot, ChatGPT, habría proporcionado asesoría jurídica sin licencia a un antiguo beneficiario de un seguro.
De acuerdo con la demanda presentada ante un tribunal federal de distrito en Chicago, en el estado de Illinois, una asegurada que contaba con una póliza de incapacidad había demandado previamente a la aseguradora, con sede en Osaka, después de que los pagos del seguro fueran suspendidos en 2022.
Ambas partes alcanzaron un acuerdo en 2024. Sin embargo, posteriormente la asegurada recurrió a ChatGPT para pedir orientación jurídica con el objetivo de anular dicho acuerdo. Según la denuncia, utilizó la herramienta para elaborar argumentos legales y redactar documentos con los cuales buscó reabrir el litigio.
Más tarde solicitó a un tribunal que el caso se reactivara e incluso presentó una nueva demanda contra la aseguradora. Para Nippon Life, esta situación generó un perjuicio económico concreto: la compañía tuvo que destinar nuevamente recursos, tiempo y dinero a un conflicto que ya había sido resuelto.
Por esa razón, la aseguradora sostiene que OpenAI habría violado una ley estatal que prohíbe ejercer asesoría legal sin licencia, al permitir que su sistema ofreciera orientación jurídica a través de ChatGPT. La empresa reclama ahora una indemnización por daños y perjuicios.
Si este caso prospera, no solo pondrá a prueba los límites legales de la Inteligencia Artificial, sino que podría abrir una pregunta mucho más amplia: si una persona toma decisiones legales basándose en las respuestas de una IA, ¿dónde empieza y dónde termina la responsabilidad? Porque detrás del entusiasmo tecnológico aparece una cuestión que el derecho todavía no ha resuelto del todo: quién responde cuando una máquina se equivoca.
El hecho es que grupos de abogados tanto en México como en Estados Unidos buscan que esto se contemple como un delito, que en México sería el de usurpación de profesiones. Lo que me preocupa, entre otras cosas, es que pareciera que estas iniciativas identifican a la IA como “alguien” y no como algo. Es decir que la IA en sí misma no podría ser tratada como autora de un delito y el delito de usurpación difícilmente podría acreditarse a la empresa desarrolladora que literalmente solo ofrece un modelo de lenguaje que responde conforme a estadísticas y que casi siempre da advertencia de buscar a un abogado. Por otro lado, preocupa que las personas con menos recursos económicos que tal vez busquen una explicación en la IA sobre lo que les sucede puedan ser sancionadas por esto. Máxime cuando creo que la autonomía legal es uno de los objetivos que debemos buscar, que cada vez más personas puedan comprender por sí mismas el derecho y las leyes. Sus propios derechos y sus propias obligaciones y restricciones. Ese es el sueño, que los abogados seamos contratados para resolver problemas pero a partir del empoderamiento legal de las personas que les permita inclusive, entender y exigir mejor a sus abogados.
El debate entre permitir que la IA se pronuncie sobre temas legales también impacta a los estudiantes de Derecho. Si esto se prohibiera, ningún estudiante podría usar la IA ni para estudiar (que con franqueza, suena bastante bien). El punto está en que si esto se hace punitivo, el autor final del delito podría ser el usuario mismo y no la IA. Ese sería el más desastroso de los escenarios. Encima de tener que lidiar con el problema que les llevó a buscar respuestas en la IA, también deberán defenderse por usar tales plataformas para sus juicios. Como abogada, me preocupa más que estas reformas deriven en punitivismo que afecte de nuevo a los que menos tienen que el hecho de que la gente use IA como una guía para entender lo que les pasa. Aun así, creo que la IA jamás debería ser usada para litigar por uno mismo o para dejar de contratar un abogado, pues la IA miente e inventa por lo que el uso de estas herramientas son un riesgo grave para los propios usuarios, pero de ahí a penalizarlo y castigarles hay un largo camino.



