Internacional
Un abogado denuncia a un juez ante el CGPJ por perjudicarlo en una sentencia usando jurisprudencia 'inexistente' a través de la IA
La irrupcin de la Inteligencia Artificial en los tribunales ha motivado la primera queja contra un magistrado ante el Consejo General del Poder Judicial (CGPJ). Pese a que la nueva realidad est regulada por normas y a que se han incorporado actuaciones automatizadas y asistidas, la actuacin de un juez de Ceuta ha quebrantado el uso de las nuevas herramientas en la Administracin de Justicia, tal como sospecha el abogado que le ha llevado ante el CGPJ. Segn el escrito de queja, el titular del Juzgado de Instruccin nmero 5 de Ceuta, Antonio Pastor, ha podido utilizar la Inteligencia Artificial en una de sus resoluciones de manera errnea para perjuicio del procedimiento. Es decir, ha citado jurisprudencia del Tribunal Supremo inexistente para inadmitir un recurso.
El letrado Rachid Mohamed Hummu indica en su escrito que la gnesis de la anomala hay que buscarla en la actuacin de la Fiscala, quien fue la primera en echar mano de esta doctrina del Supremo que, insiste, no existe. Afea al magistrado la ausencia absoluta de control y verificacin por hacer suya la argumentacin sin comprobar las apreciaciones del Ministerio Pblico. Mohamed interpuso un recurso en un procedimiento y la Fiscala, tal como expone la queja elevada al CGPJ, emiti un informe basndose en una jurisprudencia inexistente e incluso la identific con nmero, ao y fecha concreta, atribuyndole doctrina literal entrecomillada. Sin embargo, advierte al rgano de Gobierno de los jueces, estas sentencias no existen en la jurisprudencia del Alto Tribunal.
Una vez presentado el informe, prosigue, el rgano judicial lo incorpora sin la ms mnima verificacin, asumindolo como propio y convirtindolo en fundamento directo de su decisin. El instructor inadmiti el recurso presentado por el abogado en base a esta doctrina. El efecto de esta prctica es devastador desde el punto de vista constitucional, subraya Hummu.
Que la resolucin ‘acoja’ los argumentos del Ministerio Fiscal no atena la gravedad de lo ocurrido, sino que la agrava, porque el juez no puede renunciar a su deber elemental de comprobar que la jurisprudencia en la que se apoya existe realmente. Cuando un rgano judicial hace suyos unos fundamentos, responde plenamente de su veracidad y de sus consecuencias, recuerda. A juicio del abogado, la actuacin judicial denunciada es, dice, de una gravedad extraordinaria, carente de precedentes conocidos y profundamente lesiva de derechos fundamentales, que no puede explicarse como un simple error jurdico ni como una discrepancia interpretativa, sino como un fallo estructural en la elaboracin y control de una resolucin judicial. Hasta el momento, indica el abogado denunciante es la primera vez que se lleva a un magistrado ante el CGPJ por sospechas de haber utilizado Inteligencia Artificial en sus resoluciones.
Existe un precedente, pero el denunciado es un abogado, en canarias. El Tribunal Superior de Justicia de esa autonoma le investiga tras presentar un recurso de apelacin en el que citaba jurisprudencia e informes oficiales inexistentes presuntamente generados por herramientas de inteligencia artificial. Lo sucedido revela, con un grado de evidencia preocupante, el uso incorrecto de herramientas de inteligencia artificial o de sistemas automatizados de generacin de texto jurdico, utilizados sin ningn tipo de contraste ni verificacin por parte de quienes elaboran los informes y dictan las resoluciones. El patrn es reconocible, citas aparentemente precisas, con numeracin y fechas concretas, acompaadas de frases categricas que nunca han sido pronunciadas por el Supremo, sostiene Mohamed. El problema no es la tecnologa en s, sino su uso irresponsable y acrtico, trasladando a las partes las consecuencias de una motivacin construida sobre contenidos ficticios.



