La incorporación de la inteligencia artificial al ejercicio de la abogacía está transformando de forma acelerada la manera en que los profesionales del Derecho investigan, redactan escritos y gestionan la información jurídica. Herramientas basadas en IA prometen rapidez, eficiencia y una capacidad de análisis difícilmente alcanzable por medios tradicionales. Sin embargo, su uso acrítico o irresponsable puede derivar en graves consecuencias disciplinarias y procesales.

Un reciente episodio ocurrido en Canarias ha reavivado el debate sobre el papel de la IA en el ámbito jurídico y, sobre todo, sobre dónde reside la responsabilidad última cuando estas herramientas se utilizan de forma indebida.

 

Un aviso desde los tribunales: cuando la tecnología sustituye al criterio profesional

A comienzos de 2026, la Sala de lo Penal del Tribunal Superior de Justicia de Canarias acordó investigar la actuación de un abogado que, en el marco de un recurso de apelación, había fundamentado su argumentación en varias resoluciones judiciales y documentos institucionales que, sencillamente, no existían.

El tribunal detectó que al menos siete supuestas sentencias del Tribunal Supremo y un informe atribuido al Consejo General del Poder Judicial habían sido generados artificialmente. Todo apuntaba a que el letrado había utilizado una herramienta de inteligencia artificial sin comprobar posteriormente la veracidad de las fuentes citadas, incorporándolas al escrito procesal como si se tratara de jurisprudencia real y contrastada.

La Sala fue especialmente contundente al valorar la conducta, descartando que se tratara de un error aislado o excusable. Por el contrario, calificó la actuación como una falta grave de diligencia profesional, recordando que la verificación de las fuentes jurídicas constituye una obligación básica para cualquier abogado en el ejercicio de su función.

 

Posibles consecuencias disciplinarias y procesales

Más allá de la sanción procesal por vulneración del principio de buena fe, el tribunal puso los hechos en conocimiento del colegio profesional correspondiente para que se depuren, en su caso, responsabilidades deontológicas.

Este tipo de actuaciones no solo comprometen la credibilidad del profesional ante los tribunales, sino que pueden afectar gravemente a los intereses del cliente, además de erosionar la confianza en el sistema de justicia. El caso se ha convertido, así, en un ejemplo paradigmático de los riesgos asociados a un uso irreflexivo de la tecnología en el ámbito jurídico.

 

El núcleo del problema: no es la IA, es la falta de diligencia

Conviene subrayar que la inteligencia artificial no actúa de forma autónoma ni asume responsabilidad alguna. Los sistemas de IA generativa están diseñados para producir textos coherentes y verosímiles, pero no garantizan la exactitud de la información que ofrecen. De hecho, es conocido que pueden “inventar” datos, referencias o citas con una apariencia de total plausibilidad.

Por ello, cuando un abogado utiliza estas herramientas para apoyar su trabajo, la obligación de comprobar, contrastar y validar el resultado sigue siendo exclusivamente suya. Delegar esa función crítica en un algoritmo supone una clara dejación de funciones y una infracción de los deberes básicos de la profesión.

La responsabilidad profesional es indelegable. Ninguna herramienta tecnológica exime al abogado de responder por el contenido de los escritos que firma y presenta ante un órgano judicial.

 

Oportunidades reales de la inteligencia artificial en el Derecho

Dicho lo anterior, sería un error concluir que la inteligencia artificial es incompatible con el ejercicio responsable de la abogacía. Bien utilizada, puede convertirse en un aliado de enorme valor.

En áreas como el Derecho mercantil, la IA puede facilitar la revisión masiva de contratos, detectar cláusulas de riesgo o asistir en procesos de due diligence. En el ámbito procesal, permite organizar grandes volúmenes de documentación, identificar líneas jurisprudenciales relevantes o mejorar la eficiencia en la preparación de escritos.

La clave está en comprender que estas herramientas deben servir como apoyo al razonamiento jurídico, nunca como sustituto del análisis crítico ni del conocimiento técnico del profesional.

 

Formación, ética y regulación: pilares del futuro jurídico

El caso de Canarias pone de relieve la necesidad de reforzar la formación digital de los abogados. No se trata de convertir a los juristas en expertos tecnológicos, sino de dotarlos de los conocimientos suficientes para entender el funcionamiento, las limitaciones y los riesgos de las herramientas que utilizan.

Asimismo, resulta imprescindible un marco normativo y deontológico claro. En este sentido, la normativa europea en materia de inteligencia artificial, junto con las reglas éticas de la abogacía, marcará las pautas para un uso responsable de estas tecnologías, garantizando la protección de los derechos de los ciudadanos y la calidad del servicio jurídico.

 

Conclusión: tecnología sí, pero con responsabilidad

La inteligencia artificial ha llegado para quedarse en el sector legal. Su potencial es indudable, pero también lo es la necesidad de utilizarla con prudencia, criterio y responsabilidad.

El episodio ocurrido en Canarias no debe interpretarse como un fracaso de la tecnología, sino como un recordatorio de que el juicio humano sigue siendo insustituible. La abogacía del futuro será, necesariamente, una abogacía apoyada en herramientas tecnológicas avanzadas, pero siempre guiada por la diligencia, la ética y la responsabilidad profesional.

En definitiva, la IA puede mejorar la justicia, pero solo si quienes la utilizan no renuncian nunca a su papel esencial como garantes del rigor jurídico y de los derechos de sus clientes.

 

CONTACTA

Confía en nuestro equipo

Contacta con nosotros y nuestros abogados te asesorarán desde la primera consulta.
CONTACTA