“Inteligencia artificial en el poder judicial”.
Uso de LLMs por parte de los jueces al momento del dictado de la sentencia.
Por Gastón Enrique Bielli[1]
1. Introducción a la temática.
En la actualidad, el proceso de digitalización judicial y la incorporación de herramientas tecnológicas en la administración de justicia han abierto debates fundamentales sobre cómo dichas innovaciones impactan en los principios procesales.
Sobre el particular, la introducción de Modelos de Lenguaje de gran envergadura (LLMs, por sus siglas en inglés) como ChatGPT, Gemini o la IA de Meta, capaces de interpretar, procesar y generar respuestas basadas en datos, plantea en determinados casos una problemática en torno al resguardo de las garantías del debido proceso. Por ejemplo, el uso LLMs en el momento del dictado de sentencia por parte del juez trae consigo interrogantes inéditos a la fecha para el derecho procesal.
La utilización de estas tecnologías plantea la posibilidad de que la decisión judicial no sea del todo humana, sino que se vea mediada o incluso influenciada por algoritmos. A su vez, la facilidad en el uso de estas herramientas y la plena disponibilidad y accesibilidad existentes provocan que el juez se vea tentado a utilizarlas sin mayores limitaciones, lo cual puede conllevar a un uso irreflexivo.
Pues bien, a lo largo del desarrollo de este artículo, se analizarán los riesgos asociados al uso de LLMs en el dictado de sentencias.
Se pretende reflexionar acerca del uso imprudente de dichas herramientas, sin el adecuado resguardo de los derechos de las partes, puede afectar el derecho de defensa y la imparcialidad del juzgador, pilares fundamentales de nuestro sistema republicano de justicia.
2. LLMs y herramientas de inteligencia artificial en la justicia. Beneficios y riesgos en su uso.
Los Modelos de Lenguaje de gran escala (LLMs) son herramientas de inteligencia artificial diseñadas para procesar, interpretar y generar texto de manera coherente y contextualizada. Estas plataformas son capaces de analizar grandes volúmenes de datos, identificar patrones y producir respuestas que simulan la comprensión humana.
Entre los LLMs más utilizados en la actualidad se encuentran ChatGPT, Gemini y herramientas desarrolladas por Meta, todas ellas desempeñando un papel destacado en el avance de la inteligencia artificial aplicada a diversos campos, incluyendo últimamente el judicial.
ChatGPT es un producto de OpenAI, una empresa con sede en San Francisco, Estados Unidos. Este modelo pionero ha ganado popularidad debido a su capacidad de generar respuestas detalladas y coherentes. Desde proporcionar asistencia en tareas cotidianas hasta ayudar a las empresas a mejorar su atención al cliente, ChatGPT se ha convertido en una herramienta esencial tanto para usuarios individuales como para organizaciones.
Su versatilidad le permite adaptarse a diferentes necesidades, ya sea respondiendo preguntas, apoyando procesos educativos o siendo utilizado en investigaciones y desarrollos de nuevas aplicaciones.
Gemini es una herramienta desarrollada por Google DeepMind, una división de Google dedicada a la investigación en inteligencia artificia, también ubicada en Estados Unidos, que se destaca por su enfoque en el análisis contextual y en la comprensión profunda de los textos. Google ha aprovechado su vasta infraestructura tecnológica para hacer de Gemini una herramienta poderosa en la búsqueda y procesamiento de información.
Meta, radicada en Menlo Park, California, ha desarrollado sus propios modelos de lenguaje de gran escala, destinados a integrar inteligencia artificial en aplicaciones cotidianas como WhatsApp, Instagram y Facebook. Meta ha apostado por el desarrollo de interfaces accesibles que permiten a los usuarios interactuar con estas herramientas de manera intuitiva.
2.1. Beneficios del uso de LLMs en la justicia.
Pues bien, el uso de LLMs como ChatGPT, Gemini y los modelos de Meta presenta numerosos beneficios para la administración de justicia.
En primer lugar, encontramos la capacidad de procesamiento de grandes volúmenes de datos en poco tiempo, lo cual es esencial en un contexto judicial en el que la eficiencia puede marcar la diferencia entre una justicia expedita y una justicia tardía.
Estos modelos permiten analizar expedientes judiciales, extraer información relevante y resumir documentos extensos en cuestión de minutos, lo que podría permitir el ahoro de tiempo y esfuerzo a los operadores del sistema judicial y permitiendo que los recursos se enfoquen en la toma de decisiones clave.
Además, la accesibilidad de estas herramientas a través de diversas plataformas (navegadores, aplicaciones móviles, etc..) y la disponibilidad (los 365 días del año las 24 horas del dia) permite que un mayor número de profesionales puedan utilizarlas sin necesidad de conocimientos avanzados en informática, lo cual facilita su integración.
Otro beneficio importante es la capacidad de personalización que ofrecen los LLMs, siendo que estas herramientas pueden ser entrenadas y adaptadas a las necesidades específicas de cada jurisdicción, permitiendo que los jueces tengan acceso a información relevante y contextualizada según el marco legal aplicable.
Asimismo, estas tecnologías pueden ser entrenadas para manejar el vocabulario y los procesos específicos de diferentes áreas del derecho, proporcionando resultados más precisos y reduciendo las posibilidades de errores debidos a la interpretación errónea de términos legales complejos.
2.2. Riesgos del uso de LLMs por parte de magistrados.
Sin embargo, junto con sus beneficios, el uso de LLMs también presenta puntos oscuros que deben ser cuidadosamente considerados por los jueces al momento de emplear dichas herramientas para el dictado de resoluciones judiciales.
Un aspecto crítico es la falta de conocimiento sobre cómo son entrenadas y qué datos específicos se utilizan para su desarrollo. La falta de transparencia en el proceso de entrenamiento hace que sea difícil evaluar la fiabilidad y neutralidad del modelo. Consecuentemente, otro de los principales desafíos es la imposibilidad de auditar completamente los procesos internos de estos modelos.
Otro problema relacionado es la dificultad de establecer criterios de responsabilidad. Si el razonamiento generado por un modelo de lenguaje contiene errores o lleva a una conclusión errónea que luego influye en una sentencia judicial, ¿quién es responsable?
A su vez, las alucinaciones también son un problema actual e importante en el uso de LLMs. En el contexto judicial, las alucinaciones pueden tener consecuencias graves, especialmente si el juez o los abogados no tienen los medios para verificar la veracidad de la información proporcionada por el modelo.
Otro punto oscuro es la presencia de sesgos en los modelos de lenguaje. Los LLMs son entrenados en grandes volúmenes de datos que incluyen información proveniente de diversas fuentes, lo cual implica que los sesgos presentes en esos datos se trasladan al modelo.
Finalmente existe un último tema crítico que se debe considerar. Nos referimos al cuidado necesario al ingresar datos sensibles en estas herramientas.
Profundizaremos sobre estos riesgos en las siguientes paginas.
3. Antecedentes sobre el uso de LLMs y herramientas de inteligencia artificial en resoluciones judiciales.
3.1. Estados Unidos: James Snell v. United Specialty Insurance Company. Tribunal de Apelaciones del Undécimo Circuito de los Estados Unidos. expediente es 22-12581.
La sentencia se produce en relación con un conflicto sobre la cobertura de un seguro para un accidente vinculado a la instalación de un trampolín por parte de Snell.
James Snell, propietario de una empresa de servicios generales, fue contratado para realizar trabajos de instalación de un trampolín en la propiedad de un cliente. Durante el proceso de instalación, ocurrió un accidente que resultó en daños a la propiedad y lesiones personales.
Snell presentó un reclamo ante United Specialty Insurance Company para que se activara la cobertura del seguro, argumentando que el trabajo realizado estaba cubierto por la póliza vigente.
La aseguradora, sin embargo, denegó la reclamación, alegando que las actividades desarrolladas por Snell no se encontraban dentro del alcance de la cobertura contratada, ya que las consideraban “paisajismo”, una actividad excluida expresamente de la póliza.
En primera instancia, el Tribunal de Distrito falló a favor de United Specialty Insurance Company, concluyendo que la instalación del trampolín constituía una actividad excluida según los términos de la póliza. Snell, disconforme con esta decisión, apeló la sentencia argumentando que el tribunal había interpretado de manera errónea los términos del contrato y que el trabajo realizado no debería ser considerado como “paisajismo”.
En cuanto al uso de la inteligencia artificial, el tribunal utilizó herramientas basadas en modelos de lenguaje de gran escala (ChatGPT y Bard) para analizar la interpretación del contrato de seguro, particularmente sobre si las actividades de Snell se clasificaban como “paisajismo” bajo la póliza.
Es decir, se discute la posibilidad de utilizar IA, como ChatGPT, para interpretar la expresión “landscaping” (paisajismo) en el contexto del contrato.
Esta metodología permitió al tribunal evaluar el significado ordinario de términos relevantes en el contrato, recurriendo a fuentes diversas.
Se destacó la capacidad del modelo de identificar patrones en el lenguaje que apoyaron la conclusión del tribunal de que la actividad realizada por Snell no entraba dentro de la cobertura del seguro.
Aunque los LLMs fueron considerados para brindar contexto sobre el uso cotidiano de términos específicos, su inclusión generó cierta controversia respecto a su fiabilidad en la interpretación judicial. Es que la sentencia también manifestó varios cuestionamientos.
El principal señaló que estos modelos tienden a “alucinar” o generar información incorrecta, especialmente cuando los datos utilizados para entrenarlos no capturan con precisión el significado en contextos específicos, siendo que esta característica implica riesgos cuando la decisión depende de una interpretación precisa.
Otra crítica apuntó a que los LLMs no capturan adecuadamente el lenguaje y los usos de poblaciones subrepresentadas, lo cual podría conllevar a decisiones que no reflejan las particularidades culturales o regionales de ciertos grupos, afectando su representatividad en contextos legales. Esto fue un aspecto relevante en este caso, ya que el lenguaje del contrato debía analizarse desde una perspectiva lo más amplia posible.
Finalmente, se consideró la posibilidad de que abogados, jueces y otras partes interesadas manipulen los LLMs a su favor, planteando cuestiones sobre la ética y la transparencia en el uso de esta tecnología en decisiones judiciales.
3.2. Colombia: Sentencia T-323 de 2024. Corte Constitucional de Colombia. Sala Segunda de Revisión.
La sentencia T-323 de 2024 fue tramitada por la Corte Constitucional de Colombia en la acción de tutela promovida por Blanca en nombre de su hijo menor de edad, contra la EPS (Entidad Promotora de Salud). En esta acción se discutió el cobro de copagos y cuotas moderadoras a un niño diagnosticado con trastorno de espectro autista (TEA) y la solicitud de suministro del servicio de transporte para asistir a las terapias de rehabilitación del menor.
La controversia surgió cuando la EPS negó la existencia de una discapacidad y la necesidad de transporte, lo cual fue impugnado ante las instancias judiciales pertinentes.
En la segunda instancia del proceso, el juez del circuito utilizó ChatGPT 3.5 para apoyar su decisión. El magistrado argumentó que la IA se empleó para extender la argumentación de la decisión previamente tomada, aclarando que las respuestas obtenidas del sistema fueron un complemento a su razonamiento judicial y no la base fundamental de su fallo.
Las preguntas formuladas a la IA se centraron en aspectos como si un menor autista estaba exento de copagos, si la tutela debía prosperar y si los copagos eran una barrera de acceso a la salud.
La Corte Constitucional manifestó subrayó que el principio de no sustitución de la racionalidad humana debía ser respetado, asegurando que la IA no podía reemplazar el razonamiento judicial, que es esencial para la interpretación de los hechos, valoración de pruebas y adopción de decisiones.
Es as que se estableció una serie de principios que deben guiar el uso de la IA en la administración de justicia.[1]
Transparencia, entendida como la obligación de evidenciar con claridad y precisión el uso, alcances y ubicación en las actuaciones o decisiones de los resultados obtenidos por la utilización de tales herramientas, que permita a los usuarios e interesados su pleno conocimiento y la posibilidad efectiva de contradicción.
Responsabilidad, comprendida como aquella obligación que existe de que el usuario de la herramienta de IA se encuentre capacitado y comprenda los impactos del uso de estas tecnologías, para a su vez dar cuenta del origen, idoneidad y necesidad del uso de la IA y la información suministrada por la misma, la cual debe ser verificada.
Privacidad, es aquel deber de custodiar y proteger la reserva de los datos personales y sensibles que se ponen en conocimiento de la administración de justicia para cumplir con los fines propios de la Rama Judicial.
No sustitución de la racionalidad humana, como expresión de la imposibilidad ética y jurídica de sustituir la acción y la responsabilidad del individuo de la especie humana en la gestión de las actuaciones y decisiones judiciales.
Seriedad y verificación, que implica la obligación de realizar un estricto escrutinio sobre las fuentes, alcances, restricciones, posibilidades, falencias y riesgos que presente la herramienta de cara a la actuación en curso o a la solución del problema jurídico correspondiente.
Prevención de riesgos, como mandato en cuanto aplicar los estándares adecuados de control sobre situaciones que generen riesgo por la aplicación de tecnologías tales, en aspectos como imprecisiones, desactualizaciones, alucinaciones, sesgos, inconsistencias y demás.
Igualdad y equidad, en cuanto se erradiquen todas las formas de discriminación relacionadas con la aplicación de sesgos derivada del uso de tales tecnologías y su impacto negativo en la eficacia de los derechos humanos.
Control humano, en tanto considerando los anteriores criterios, siempre se permita la realización efectiva de escrutinios sobre las actuaciones y decisiones en que se usen herramientas de IA, mediante el acceso a la debida información y el uso de recursos que deban ser resueltos por autoridades humanas.
Regulación ética, que implica el desarrollo de estándares de comportamiento individual que se adecúen a los mandatos superiores y legales y a las pautas razonables para el uso de tales tecnologías por parte de los funcionarios y servidores de la Rama Judicial.
Adecuación a buenas prácticas y estándares colectivos, en tanto se apliquen los esquemas razonables que se definan para el funcionamiento de la Rama Judicial, desde su autonomía e independencia, a partir de las definiciones que adopten sus autoridades, tanto en sede de administración como de orientación jurisprudencial.
Seguimiento continuo y adaptación, a efecto que el uso de tales tecnologías consulte los avances jurídicos, sociológicos y tecnológicos que se vayan implementando, así como los esquemas de mejora y control que se construyan en forma progresiva.
Idoneidad. El uso de las tecnologías de la información y de las comunicaciones en la gestión y trámite de los procesos judiciales y asuntos en curso debe ser adecuado para facilitar y agilizar el acceso a la justicia.
3.3. Brasil: Tribunal Regional Federal de la 1ª Región. Circular 33/2023.
Se trata de una investigación (aun en curso) sobre el uso de inteligencia artificial por parte de un juez federal brasileño para redactar una sentencia (no se menciona el fallo investigado).
El Consejo Nacional de Justicia (CNJ) de Brasil abrió una investigación luego de que se identificara que la sentencia mencionada hacía referencia a un supuesto precedente del Superior Tribunal de Justicia Regional, el cual resultó ser inexistente. Este incidente se suma a otros casos similares en los que la IA generativa proporcionó información falsa, mediante el fenómeno conocido como “alucinación”.
En este caso, el abogado defensor detectó el error y lo notificó al Departamento Regional de Asuntos Internos de la Justicia Federal de la 1° Región.
Inicialmente, se consideró que el error se debió a la sobrecarga de trabajo, y el expediente fue archivado. Sin embargo, el caso fue reabierto, atrayendo la atención del CNJ y derivando en la investigación contra el juez involucrado.
En respuesta al incidente, el Tribunal Regional Federal de la 1ª Región, a través de la Circular COGER 33/2023, emitió recomendaciones a jueces y funcionarios judiciales sobre la cautela que se debe tener al utilizar inteligencia artificial generativa en la elaboración de sentencias.
Se recordó que, aunque la Resolución 332/2020 del CNJ permite el uso de IA en el poder judicial, dicho uso debe cumplir criterios éticos rigurosos, incluyendo la transparencia y la supervisión constante de los magistrados. Además, se enfatizó la necesidad de utilizar fuentes seguras y auditables para el aprendizaje de la IA.
El uso de inteligencia artificial generativa, específicamente modelos de lenguaje a gran escala (LLM) como ChatGPT, tiene ventajas, como la posibilidad de revisar textos y realizar tareas auxiliares en las oficinas judiciales. Sin embargo, estas herramientas no están diseñadas para ser una fuente de investigación fiable ni para la redacción directa de resoluciones judiciales, ya que existe el riesgo de proporcionar información incorrecta o “alucinada”. La Circular COGER destacó que el uso de estas herramientas debe ser restringido y supervisado, evitando errores como la inclusión de precedentes inexistentes.
Es así que las críticas se centraron en la falta de supervisión y en la dependencia excesiva de la IA sin una verificación adecuada. La inclusión de precedentes inexistentes en una sentencia demuestra el riesgo de confiar ciegamente en estas herramientas sin un control humano adecuado.
Este antecedente subraya la necesidad de que la IA solo sea una herramienta complementaria, mientras que la responsabilidad final de las decisiones judiciales recae siempre en los jueces.
Se recomendó que no se usen herramientas de IA generativa abiertas para la búsqueda de jurisprudencia sin aprobación de los órganos de control, reforzando la responsabilidad del magistrado en la utilización de tales tecnologías.
3.4. Paises bajos: ECLI: NL: RBGEL: 2024: 3636. Tribunal de Distrito de Güeldres (Rechtbank Gelderland).
El conflicto comenzó cuando los propietarios de una casa, quienes habían instalado paneles solares en su techo, se vieron obligados a moverlos temporalmente para que sus vecinos pudieran utilizar ese espacio para el soporte de una estructura durante una obra de construcción.
Ambas partes no lograron ponerse de acuerdo sobre la compensación económica que cubriría la pérdida de eficiencia de los paneles solares, lo cual llevó al rechazo del uso del techo y posteriormente a una demanda judicial.
Para determinar el daño causado, el juez recurrió al uso de ChatGPT como herramienta pericial. Específicamente, consultó a la inteligencia artificial sobre el promedio de vida útil de los paneles solares instalados y, en base a la información proporcionada, estimó que a los paneles les quedaban aproximadamente 15 años de vida útil.
Además, ChatGPT fue utilizado para calcular la posible pérdida de eficiencia de los paneles solares con el paso del tiempo, información crucial para determinar el impacto económico en términos del subsidio de energía renovable que los propietarios estaban recibiendo.
3.5. Argentina: G.M.C. S/ Informacion sumaria (Convivencia). Expediente 2302/23. Juzgado de Paz de Berón de Astrada. Corrientes.
El caso trató sobre una solicitud de información sumaria por parte de una mujer, M.C.G., que buscaba demostrar la convivencia en aparente matrimonio con el fallecido E.A.C.A., con quien tuvo dos hijos.
La demanda fue presentada sin patrocinio letrado, y el juez debía determinar si la prueba presentada respaldaba la afirmación de la convivencia, la cual fue cuestionada por la documentación y los testimonios recogidos durante el proceso.
Durante el dictado de la sentencia, el juez decidió hacer uso de ChatGPT para redactar un párrafo en formato de lectura fácil, específicamente destinado a la peticionante, quien tenía un bajo nivel de instrucción.
El objetivo de esta aplicación fue explicar de manera clara y sencilla el contenido de la resolución y los fundamentos del rechazo de la solicitud. Para esto, el juez introdujo el texto de los considerandos completos en la IA y solicitó un resumen en lenguaje simple, lo cual facilitó la comunicación del fallo a la parte interesada.
Aquí se vislumbra que la aplicación de la inteligencia artificial en este caso tuvo un aspecto positivo: el uso de ChatGPT permitió mejorar la accesibilidad de la información legal para una persona con poca formación. El juez José Osvaldo Ledesma señaló que las tecnologías como ChatGPT pueden potenciar la labor judicial al permitir una mejor comunicación con los ciudadanos, facilitando la comprensión de las decisiones judiciales. Además, destacó que el uso de la IA no reemplaza el análisis judicial, sino que lo complementa, siempre bajo supervisión y control humano.
3.6. Argentina: A., N. B. y otros c/ Aguas Santafesinas S.A. s/ Medida Autosatisfactiva. CUIJ 21-02975994-1. Juzgado Civil y Comercial de 14ª Nominación de Rosario.
La causa fue promovida por una mujer que solicitó la adecuación del servicio de agua potable en su domicilio debido a la insuficiencia de presión y la contaminación del agua, una situación que se agravó desde la instalación del Casino City Center en la zona hace ocho años.
La actora argumentó que la falta de presión hacía imposible el uso de electrodomésticos básicos y hasta el acceso al agua potable para el consumo, obligándola a comprar agua embotellada. Además, el Ente Regulador de Servicios Sanitarios verificó la deficiencia en el servicio, ordenando una reducción del costo que resultó en la tarifa gratuita para la actora, aunque esto no solucionó el problema. Las propuestas conciliatorias ofrecidas, como la entrega de agua en bidones o la recarga de tanque mediante cuba, tampoco fueron suficientes para resolver la situación.
En este proceso, el juez utilizó la inteligencia artificial disponible en WhatsApp/Meta para formular preguntas técnicas sobre la presión mínima necesaria para garantizar el acceso adecuado al agua potable. Consultó específicamente si se cumplía con el derecho al acceso al agua con una presión menor a 1 metro de columna de agua (M.C.A.), a lo cual la IA respondió negativamente.
Esta interacción con la IA fue utilizada como un elemento adicional para sustentar el fallo, destacando que la presión insuficiente afecta de manera considerable la capacidad de acceso al agua y, por ende, impacta en la salud y el bienestar general de los usuarios.
El juez enfatizó que las consultas realizadas a través de la IA no constituyen una extralimitación de la función judicial, sino una herramienta de comprobación de los hechos y argumentos presentados en el expediente.
4. Uso de Inteligencia Artificial y LLMs al momento del dictado de la sentencia.
Habiendo hecho una introducción a las LLMs como así también los antecedentes jurisprudenciales más resonantes en donde ha quedado demostrado el uso de dichas herramientas (tanto positivo como negativo), nos introduciremos en una cuestión nada menor, como es el caso del empleo de herramientas de inteligencia artificial por parte del juzgador al momento del dictado de la sentencia y sus implicancias jurídicas y procesales.
Y la primera cuestión a la que debemos referirnos, es si efectivamente, el juez produce prueba de oficio si utiliza estas herramientas de inteligencia artificial al momento del dictado de la sentencia, o bien, si puede utilizarlas a modo de instrumento de mera consulta sin mayores restricciones.
Para encausar dicho planteo, haremos referencia a las posturas de la doctrina procesal que se encuentran en colisión en lo que respecta a la temática en tratamiento.
4.1. La postura del tecnogarantismo judicial.
Ya hemos esbozado en trabajos anteriores como percibe el garantismo probatorio a la cuestión de la prueba electrónica de oficio.[2]
Y el maestro Alvarado Velloso sostuvo oportunamente que el problema de determinar a quién le incumbe aportar al proceso la confirmación de los hechos afirmados por una de las partes y negados por la otra (itero que esos son los hechos controvertidos) es tan antiguo como el derecho mismo y ha preocupado por igual a la doctrina ya la jurisprudencia de todos los tiempos.[3]
Pues bien, la tesitura concibe al proceso como un método de debate, dialogal, argumentativo en el que dos desiguales por naturaleza, se igualan jurídicamente por la imparcialidad del juzgador. Las partes se encuentran en un mismo pie de igualdad, ante un tercero imparcial, impartial e independiente que es el juez, no pudiéndose este colocar en el rol de alguna de ellas con la intención de favorecer activamente, mediante la producción de prueba de oficio, alguna posición.[4]
Entonces, se vislumbra que el garantismo procesal se rige bajo la premisa de resguardar el derecho de defensa de las partes en litigio. Son aquellas quienes tienen la exclusividad de ofrecer los elementos de convicción para probar sus pretensiones ante el juez, es decir, se suprime la facultad que tiene el juzgador de ordenar -de oficio- la práctica de diligencias que no fueran ofrecidas por las partes, con el fin de arribar a su convencimiento.
El magistrado tecnogarantista pondera, como principio fundamental en materia probatoria, que el fin de la prueba es procurar el convencimiento o certeza sobre la realidad de los hechos que las partes presentan ante el tribunal, pero siempre a través de los medios y el material probatorio ofrecido por las propias partes. De este modo, el juez se autolimita en la producción de actos procesales de oficio, respetando el principio de imparcialidad y garantizando que la decisión se base exclusivamente en la evidencia presentada por los litigantes.
Pues bien, ya sobre el tema aquí en tratamiento, el tecnogarantismo judicial se fundamenta en la necesidad de preservar las garantías procesales y evitar cualquier forma de intervención tecnológica que pueda comprometer el derecho de defensa de las partes.
Desde la perspectiva del tecnogarantismo, la actuación de un juez que ingresa a un Modelo de Lenguaje de gran escala (LLM) para buscar información en el momento del dictado de la sentencia representa una clara violación al principio de imparcialidad y al derecho de defensa de las partes. Esta práctica implica que el juez se involucra activamente en la búsqueda de elementos que no han sido aportados por las partes, lo cual puede derivar en un uso arbitrario de la información disponible, afectando el equilibrio procesal.
Y en materia de prueba electrónica, la doctrina es crítica al establecer que el rol del juez activo, que investiga (por ejemplo, al entrar a una base de datos o registro donde existan datos personales relevantes de alguna de las partes), ofrece pruebas (por ejemplo, solicita que se audite de oficio un sistema informático) con fundamento en un neoconstitucionalismo moderno que aumenta y otorga poder al funcionario público que más poder tiene en un Estado, o sea el Juez, es contraproducente.[5]
Esta práctica implica que el juez acceda a información que ninguna de las partes ha tenido la oportunidad de ofrecer o cuestionar, generando una situación de desigualdad. [6]
Además, el carácter opaco de los LLMs, cuyos procesos internos no siempre son comprensibles ni auditables, agrava este problema, ya que dificulta la trazabilidad de cómo se llega a ciertas conclusiones o de qué manera se influye en el resultado del juicio.
Es importante destacar que, a su vez, el uso de un LLM en el momento del dictado de la sentencia puede implicar que la decisión no sea completamente humana, sino mediada por un algoritmo que, aunque eficiente, no puede discernir las particularidades de cada caso con la sensibilidad y prudencia que requiere la función judicial.
Y este tipo de intervención podría llevar a decisiones que carezcan de una base probatoria sólida, apoyándose en datos generados o seleccionados por una inteligencia artificial que, al dia de la fecha, no comprende el contexto específico ni las sutilezas de los derechos fundamentales en juego.
El tecnogarantismo, por tanto, se opone firmemente a cualquier práctica que desplace el juicio crítico humano en favor de un proceso automatizado que, lejos de garantizar justicia, podría generar serias injusticias al carecer de un control adecuado.
No se concibe, bajo la mirada aquí invocada, un juez parcial que tome posturas en favor de alguno de los involucrados. Y, peor aún, mediante la producción de prueba al momento del dictado de la sentencia a través del uso de una LLM.
Si el juez interfiere en el desarrollo del proceso mediante sendas conductas, es porque ya no está interesado en el curso del mismo, sino en su resultado.
4.2. La postura del tecnoactivismo judicial.
El magistrado tecnoactivista sustenta su posición en el objeto-fin de la tarea probatoria, que no es más que procurar la llamada “verdad jurídica objetiva” a partir del proceso, obrando en razón de ello.[7]
Bajo los postulados de esta propuesta se sostiene que la prueba constituye el canal mediante el cual se obtiene la ilación entre la disertación procesal y los hechos veraces ocurridos en el ámbito real concreto.
Dentro de este orden de ideas, con el fin de buscar la verdad jurídica objetiva, los juzgadores tendrán el deber de constatar, ampliar, confrontar, confirmar y disentir la prueba electrónica propuesta por las partes; u ordenar medidas para mejor proveer, entre otros actos procesales, cuando aún consideren que no se ha llegado a procurar la necesaria convicción sobre dicha verdad jurídica objetiva existente.
De allí que, aquellos doctrinarios que sustentan esta corriente lo hacen arguyendo que es acertado para la figura del juzgador el hecho de gozar de amplias facultades conferidas por la norma de fondo y/o de forma, a fin de procurar un eficaz encauzamiento del material probatorio traído al proceso. Esto cobra aún mayor relevancia cuando nos referimos a determinadas fuentes probatorias, dado el acceso y la proximidad que existe hoy en día a herramientas avanzadas, como los modelos de lenguaje de gran escala (LLMs), que pueden ayudar y colaborar significativamente en la búsqueda de la verdad jurídica objetiva.
Estas tecnologías permitirian al juzgador analizar de manera más eficiente el material probatorio electrónico, haciendo uso de capacidades avanzadas de procesamiento y comprensión de datos que contribuyen a garantizar una valoración más precisa y exhaustiva de la prueba en el proceso judicial.
Quadri, en una magistral publicación, digna de lectura, explica que tecnoactivismo judicial en el ámbito de la prueba estaría caracterizado como el activismo judicial que, además de los medios probatorios clásicos, comienza a aprovechar aquellas posibilidades que le brindan al juez las TIC y así se vale, especialmente, del documento electrónico, en sus diversas variantes.[8] Asimismo, el prestigioso autor citado, lo califica como un activismo 2.0, pues la creciente disponibilidad de fuentes probatorias a las cuales puede acceder el magistrado tiene potencialidad suficiente como para considerar instalada una nueva versión del mismo.[9]
A la vez, reflexiona que cuando se trata de prueba electrónica, es muchísima la información que circula en la red, y muchísima también la que puede obtenerse del análisis de diversos tipos de dispositivos, especialmente aparatos de telefonía celular, pero sin que ellos agoten el catálogo, porque pueden recabarse datos de los equipos más insospechados (IoT). Entonces, cuando se le abre al juez semejante gama de posibilidades, su deber de buscar (no necesariamente hallar) la verdad jurídica objetiva parece reconfigurarse.[10]
Así se sostiene que aun cuando las partes disponen de autonomía para la promoción de las pruebas electrónicas tendientes a sustentar sus pretensiones, no puede dejarse a un lado que el director del proceso es el juez. Limitar la actividad probatoria exclusivamente a la producida por las partes, implicaría limitar las facultades del juez para arribar a su convencimiento pleno sobre los hechos acaecidos en el caso particular y, en consecuencia, a la verdad material. Consecuentemente, la realidad se encontraría recortada, inicialmente, por las afirmaciones de las partes, no pudiendo el juzgador extenderse sobre las mismas en pos de la búsqueda de la verdad; la limitación intrínseca sobre la posibilidad de disponer de otras fuentes probatorias no ofrecidas por las partes; la supresión de pruebas concretas por omisión, error o dolo de los sujetos intervinientes; la generación de falencias en la valoración efectiva de la prueba, entre otras.[11]
Desde esta perspectiva, el tecnoactivismo aboga por una mayor participación del juez en el proceso, utilizando herramientas tecnológicas avanzadas para mejorar la eficacia de la justicia.
Entonces se podría inferir que para dicha corriente, el uso de Modelos de Lenguaje de gran escala (LLMs) en el momento del dictado de la sentencia no sólo es aceptable, sino también deseable, siempre que permita al juez acceder a información adicional que contribuya a una resolución más justa y fundamentada del caso.
La idea es que el juez debe ser proactivo y utilizar todas las herramientas a su disposición para comprender mejor el contexto del caso y tomar una decisión más informada. Esto no implica necesariamente una dependencia de la tecnología, sino una sinergia entre el conocimiento jurídico y las posibilidades que ofrecen los desarrollos tecnológicos
De esta forma, el tecnoactivismo entiende que el uso de estas tecnologías no compromete la imparcialidad, sino que la fortalece al permitir al juez basar sus decisiones en una mayor cantidad de información. Es más, la cuestión queda lejos de comprometer la imparcialidad, dado que el acceso a una mayor cantidad de información puede fortalecer la capacidad del juez para llegar a una decisión justa y bien fundamentada.
La clave, según los tecnoactivistas, radica en el uso adecuado y responsable de la tecnología, siempre con la mirada puesta en la búsqueda de la verdad y la justicia.
5. Cuestionamientos sobre el uso de Inteligencia Artificial y LLMs al momento del dictado de la sentencia. Nuestra postura.
5.1. ¿Prueba de oficio o herramienta consultiva?
En base a las consideraciones mencionadas supra, avizoramos que la utilización de Modelos de Lenguaje de gran escala (LLMs) en el dictado de sentencias va a generar un debate intenso sobre cómo integrar estas herramientas en el marco del proceso judicial sin vulnerar derechos fundamentales.
Es decir, cuando el juez utiliza una plataforma como ChatGPT, Gemini o Meta IA para obtener información que lo ayude a dilucidar el conflicto que le han traído las partes, ¿está generando prueba de oficio? ¿O es el equivalente a consultar un libro de su biblioteca?
Cuando decimos “producir prueba de oficio” nos referimos a la facultad del juez para ordenar la incorporación de pruebas al proceso por iniciativa propia, sin que ninguna de las partes lo haya solicitado. Y esta acción está sujeta a ciertas limitaciones y garantías procesales, como el respeto al derecho de defensa y al principio de contradicción, permitiendo a las partes conocer y refutar la nueva prueba generada.
Por lo sostenido es que no se concibe la posibilidad de producir prueba de oficio al momento del dictado de la sentencia, sin respetar las garantías del debido proceso. Existe varios precedentes citados donde se pone en evidencia las debilidades que detenta dicho actuar irregular, menoscabando derechos y garantías ungidas en nuestra Constitución.[12]
Pues bien, aclarado lo anterior, y bajo nuestra mirada, si un juez consulta a ChatGPT, Gemini o Meta IA en el momento de dictar sentencia, pueden sucederse dos situaciones dependiendo de cómo utiliza la herramienta.
La primer situación se produce cuando un juez utiliza una IA como ChatGPT, Gemini o Meta IA para obtener información factual o elementos de prueba que no forman parte del expediente judicial, se enfrenta a un serio problema en términos de garantías procesales.
Adelantamos que al incorporar nueva información al caso sin el conocimiento ni la participación de las partes involucradas, el juez estaría violando el principio de contradicción y el derecho de defensa, pilares fundamentales del debido proceso. Esta acción puede comprometer la imparcialidad y objetividad del juicio, ya que las partes no tendrían la oportunidad de conocer, controvertir o aportar pruebas en relación con esa nueva información.
Las segunda situación, en contraste, se produce si el juez utiliza la IA como una herramienta para aclarar conceptos jurídicos o técnicos de otras especializadas (para aclarar lenguaje técnico de una pericia por ejemplo), similar a cómo consultaría un libro, siendo que aquí, a prima facie, no estaría incorporando nueva prueba al expediente ni vulnerando los derechos de las partes.
En este caso, la IA sirve como un medio para ampliar el conocimiento y comprensión del juez sobre determinados temas complejos, permitiéndole fundamentar su decisión de manera más sólida y precisa. Este uso es comparable a la labor de investigación jurídica que todo juez realiza para interpretar y aplicar correctamente las normas al caso concreto.
Sin embargo, bajo este último actuar, es importante que el juez verifique la fiabilidad y exactitud de la información proporcionada por la IA, dado que estas herramientas pueden contener errores o sesgos. Además, debe asegurarse de que su razonamiento y las fuentes consultadas queden debidamente reflejados en la sentencia, manteniendo así la transparencia y objetividad que exige la función judicial.
Pues bien, por motivos de extensión de presente trabajo, haremos énfasis en el primer caso y dejaremos el segundo para futuras producciones doctrinales.
5.2. El pilar fundamental: el respeto al debido proceso.
Nos vamos a referir a la primera situación, es decir, el juez que utiliza una IA como ChatGPT, Gemini o Meta IA para obtener información factual o elementos de prueba que no forman parte del expediente judicial.
Como hemos mencionado supra, desde la perspectiva del tecnogarantismo, la intervención de LLMs en el momento decisivo de la sentencia supone un riesgo significativo para la imparcialidad del juez y la integridad del debido proceso.
En contraposición, el tecnoactivismo judicial promueve una actitud proactiva por parte de los jueces, quienes deberían utilizar todas las herramientas tecnológicas a su disposición para arribar a una decisión más informada y justa.
Entonces, sin dejar de reconocer los increíbles beneficios que pueden traer aparejado el uso de inteligencia artificial en la justicia, destacamos que, al estado actual de conocimiento sobre la materia, debería existir un consenso en la importancia de que cualquier material generado por un LLM debe integrarse en el proceso judicial respetando el principio de contradicción y el derecho de defensa de las partes.
Y a riesgo de incurrir en reiteración, resulta necesario enfatizar que las partes deben ser informadas de cualquier uso de herramientas tecnológicas y tener la oportunidad de impugnar o validar la información, garantizando la transparencia y la igualdad en la relación procesal.
En materia especifica de prueba, consideramos fundamental garantizar que todo material probatorio generado por la inteligencia artificial sea trasladado a las partes para que éstas puedan analizar, cuestionar o refutar su contenido, evitando de este modo cualquier tipo de desequilibrio procesal. Es decir, la posibilidad de argumentar a favor o en contra de la pertinencia de la prueba generada por la IA.
Al igual que en el caso de la producción oficiosa de prueba, la incorporación de información generada por LLMs al proceso judicial debe realizarse por los canales previstos en la legislación adjetiva.
El maestro Gozaini explicita que el control de la actividad probatoria se agrega como un requisito en el debido proceso, y ha dado lugar desde hace mucho tiempo, a motivos propios para rechazar la validez de las sentencias que se fundamentan en pruebas autoadquiridas o logradas con intervención de solo una de las partes. Agregando que el principio exige que se haga efectiva la publicidad de la prueba y que ella se realice con suficiente información y control de las partes, extremo que también deben respetar las medidas para mejor proveer.[13]
Entonces, la publicidad de la prueba se transforma en una garantía esencial para el pleno ejercicio del contradictorio y del derecho de defensa en juicio, permitiendo que las partes puedan supervisar la producción probatoria y/o en su caso, cuestionar o argumentar a favor o en contra de su admisibilidad o procedencia.
La plena vigencia del debido proceso es el pilar fundamental de cualquier integración tecnológica en el ámbito judicial. El debido proceso no sólo garantiza que las partes puedan ejercer su derecho de defensa, sino también que el juez actúe conforme a las reglas procesales y sustanciales vigentes. Los principios constitucionales que estipula nuestra Carta Magna deben ser siempre respetados.
Por lo tanto, es fundamental que los jueces actúen con extrema prudencia y responsabilidad al emplear herramientas de inteligencia artificial, ya que un uso excesivo o indebido podría conducir a una clara vulneración del debido proceso. Además, existen otros factores de gran relevancia que deben ser considerados, especialmente en relación con los riesgos y aspectos problemáticos asociados al uso de estas tecnologías. Los trataremos a continuación.
5.3. Elementos críticos a considerar al integrar IA en la toma de decisiones judiciales
Aunque en los primeros acápites del presente trabajo se hizo referencia a los puntos que se detallarán a continuación, consideramos sumamente necesario resaltarlos en profundidad. Existen varios riesgos asociados al uso de herramientas de inteligencia artificial por parte de los jueces que merecen una atención particular.
- Falta de transparencia en el entrenamiento de los modelos: la falta de transparencia en el entrenamiento de los LLMs implica que, a menudo, no se sabe exactamente cómo se ha entrenado el modelo ni qué datos se han utilizado. Esta opacidad puede generar desconfianza, ya que no se puede garantizar que la información que el modelo proporcione sea imparcial o adecuada para el contexto específico de un proceso judicial.
- Imposibilidad de auditar: al dia de hoy existe una imposibilidad de auditar los resultados y el proceso que lleva a ellos. Estos modelos de lenguaje están construidos sobre millones de parámetros y, a menudo, es difícil desentrañar cómo un determinado input lleva a un output específico.
Esto se debe a que los modelos de lenguaje funcionan a través de complejas redes neuronales y algoritmos de aprendizaje profundo que procesan enormes cantidades de datos, lo cual dificulta enormemente trazar el razonamiento exacto que se haya efectuado. La llamada “caja negra” de la inteligencia artificial implica que incluso los desarrolladores de estos sistemas no pueden explicar de manera directa cómo se formó una respuesta específica a partir de un conjunto de entradas.
En el contexto de la administración de justicia en Argentina, esta falta de transparencia representa un gran obstáculo. Sería extremadamente difícil para un juez argentino pedirle a OpenAI o cualquier otra empresa desarrolladora una auditoría exhaustiva sobre el razonamiento realizado por la plataforma ChatGPT, especialmente en situaciones donde se ha utilizado la información proporcionada por la IA para fundamentar una sentencia.
Lo anterior se debe tanto a las complejidades técnicas inherentes a estos modelos como a las limitaciones legales y jurisdiccionales que existen entre los tribunales nacionales y empresas con sede en otros países.
Entonces, dicha incapacidad para auditar adecuadamente estas herramientas supone un riesgo considerable, ya que impide el control y la validación del contenido tanto por el juez como por las partes en litigio, lo que podría comprometer la equidad en las decisiones a tomarse.
- Dificultad para establecer criterios de responsabilidad: otro problema relacionado es la complejidad para determinar quién es responsable en caso de que la inteligencia artificial proporcione información incorrecta, sesgada o inapropiada que influya en una decisión judicial. Si un juez basa su sentencia en datos erróneos generados por un LLM, surge la cuestión de si la responsabilidad recae en el desarrollador de la IA, en el juez por utilizar la herramienta sin una verificación adecuada, o en ambos. Esta incertidumbre en la atribución de responsabilidades puede generar implicaciones legales y éticas significativas, y pone de relieve la necesidad de establecer marcos normativos claros que regulen el uso de estas tecnologías en el ámbito judicial.
- Riesgo de generar alucinaciones: otro aspecto crítico es el riesgo de generar alucinaciones, este término se refiere a la tendencia de los modelos a generar información que parece plausible pero que es completamente incorrecta o inventada. En el contexto judicial, las alucinaciones pueden tener consecuencias graves, especialmente si el juez o los abogados no tienen los medios para verificar la veracidad de la información proporcionada por el modelo.
No son pocos los fallos que se han visto a la fecha donde se sancionan abogados que citan normativa, jurisprudencia o doctrina generada por una LLM y que luego es verificada como inexistente.[14]
- Presencia de sesgos inherentes: los LLMs están sujetos a los sesgos presentes en los datos con los cuales son entrenados. Los LLMs son entrenados en grandes volúmenes de datos que incluyen información proveniente de diversas fuentes, lo cual implica que los sesgos presentes en esos datos se trasladan al modelo.
Estos sesgos pueden estar relacionados con prejuicios raciales, de género, económicos o culturales, y se trasladan a los resultados proporcionados por la IA.
Lo anterior podría influir negativamente en la objetividad del proceso judicial, si el juez no es consciente de estos sesgos y no aplica un filtro crítico a la información generada por la herramienta.
Es que el juez podría estar basando su decisión en información parcial o discriminatoria sin siquiera ser consciente de ello siendo que podría dar lugar a decisiones parciales o injustas
- Protección de datos personales: finalmente existe un último tema crítico que se debe considerar. Nos referimos al cuidado necesario al ingresar datos sensibles en estas herramientas.
Los LLMs funcionan procesando grandes cantidades de información, lo cual implica que cualquier contenido introducido en el sistema puede potencialmente ser utilizada para mejorar futuros resultados por parte de las empresas privadas titulares de las mismas.
Es necesario tomar las medidas adecuadas para anonimizar y proteger esta información, siendo que existe el riesgo de que los datos de las personas involucradas en el proceso judicial sean expuestos de manera indebida. La protección de datos personales es un derecho y debe ser prioritario al implementar herramientas de IA en la justicia.
6. Conclusiones.
En el transcurso de este trabajo, hemos establecido las cuestiones que deben observarse en la utilización de herramientas de inteligencia artificial por parte de los magistrados, especialmente al momento de dictar sentencia.
Tecnologías como los Modelos de Lenguaje de Gran Escala (LLMs) pueden brindar una ayuda significativa al sistema judicial, mejorando la eficiencia, facilitando el análisis de grandes volúmenes de información y apoyando en la redacción de resoluciones. Sin embargo, es necesario considerar que la utilización inadecuada de estas herramientas puede generar efectos adversos, poniendo en riesgo principios fundamentales de la justicia.
Analizamos precedentes jurisprudenciales donde los jueces han empleado estas tecnologías, lo que nos permitió identificar las problemáticas que pueden surgir en el ámbito judicial.
Sostuvimos que el debido proceso debe ser el pilar que guíe cualquier implementación y uso de estas herramientas por parte de los magistrados. Es fundamental que la integración de LLMs se realice bajo estricta supervisión y conforme a los principios de contradicción y derecho de defensa, garantizando así un proceso siempre justo y equilibrado, y protegiendo los derechos de las partes en litigio.
Consideramos que la transparencia y la posibilidad de cuestionar decisiones basadas en inteligencia artificial son esenciales para preservar la equidad y la confianza en el sistema de justicia.
También resaltamos las debilidades actuales de estas tecnologías, como la falta de transparencia, la imposibilidad de auditar sus procesos internos, la cuestión de la atribución de responsabilidad, los sesgos inherentes, la protección de los datos de las partes y el riesgo de generar alucinaciones. Estos riesgos deben ser cuidadosamente considerados para evitar comprometer la imparcialidad y equidad del proceso judicial.
El análisis realizado nos permite concluir que, si bien las herramientas de inteligencia artificial tienen un gran potencial para modernizar y mejorar el acceso a la justicia, su uso debe estar acompañado de una profunda reflexión ética y jurídica.
La integración de LLMs debe llevarse a cabo siempre bajo una estricta supervisión humana, respetando los principios de imparcialidad y contradicción, para garantizar que el proceso judicial sea justo y equilibrado.
Por último, consideramos esencial e imprescindible que las diversas jurisdicciones implementen capacitaciones para los magistrados, a fin de que cuenten con una formación adecuada sobre las capacidades y limitaciones de estas tecnologías. De este modo, podrán utilizarlas de manera informada y responsable, minimizando los riesgos y maximizando sus beneficios para la sociedad.
[1] ONOCKO, S. Su Señoría ChatGPT. Diario Judicial. Buenos Aires. 13 de Agosto de 2024. Link: https://www.diariojudicial.com/news-98478-Un-topo-en-la-defensoria
[2] BIELLI, G. E. – ORDOÑEZ, C. J., El juez y la prueba electrónica, ya citado.
[3] ALVARADO VELLOSO, A. Lecciones de derecho procesal civil. Editorial Juris. Rosario. Santa Fe. 2009. Pag. 429.
[4] ALVARADO VELLOSO, A. Lecciones de derecho procesal civil. Editorial Juris. Ya cit. Pag. 7.
[5] FORNETTI, O. E. – GATICA, G. J. El activismo procesal tecnológico y el debido proceso legal -Una historia de “Black Mirror” Judicial- Publicado en elDial.com. Fecha: 18/10/2019. Cita online: DC28CE.
[6] Recordemos que la Suprema Corte de la Provincia de Buenos Aires ya ha descalificado sentencias en las cuales, para decidir, el órgano jurisdiccional se apoyó en información recabada -por el Tribunal- directamente de Internet, que no había sido ofrecida ni producida como prueba (ni siquiera dentro de las potestades oficiosas del órgano jurisdiccional). Señaló al respecto el Alto Tribunal bonaerense que una decisión dictada en esas condiciones carece de sustento probatorio idóneo, apoyándose en su exclusivo arbitrio Sup. Corte Bs. As., 13/5/2015, “González, Elisa Miriam contra Santoro, Carlos Horacio y otros. Despido”.
[7] Ha sido criterio de nuestro máximo tribunal que, la prescindencia de la verdad no se corresponde con un adecuado servicio de administración de justicia; si bien los jueces deben fallar con sujeción a las reglas y principios de forma, según las circunstancias de hecho que aducen y acreditan las partes -secundum allegata et probata partium- nada excusa su indiferencia respecto de la objetiva verdad en la augusta misión de dar a cada uno lo suyo. (CSJN. Sentencia de fecha 17 de octubre de 2017, en autos Figueroa Juan Carlos Y Otros C/ Municipalidad De La Banda Y Otro S/Recurso De Amparo). Véase también fallos: Nro. 198:95; 212: 280; 234: 769; 249: 203; 245: 311 y 290: 337.
[8] QUADRI, G. H. Manifiesto del tecnoactivismo judicial (en el ámbito probatorio). Temas de Derecho Procesal. ERREIUS. Marzo 2020.
[9] QUADRI, G. H., Manifiesto del tecnoactivismo judicial…, ya citado.
[10] QUADRI, G. H. Manifiesto del tecnoactivismo judicial…, ya citado.
[11] QUADRI, G. H. La prueba en el proceso civil y comercial. Editorial Abeledo Perrot. Capítulo 12. Pág. 443.
[12] “SCBA. González, Elisa Miriam contra Santoro, Carlos Horacio y otro/a. Despido”, sentencia del 13 de mayo de 2015 Aqui se analiza un proceder semejante y se desaprueba la prueba oficiosa recolectada por el tribunal votante. El referenciado Tribunal fue contundente al expresar que: “…el sentenciante echó mano a un elemento de juicio ajeno al expediente -esto es, una prueba no ofrecida ni producida, ni siquiera ordenada en el marco de las atribuciones conferidas a los jueces del trabajo en el art. 12 de la ley 11.653- constituida por los supuestos “medios informáticos a disposición” que -según se estableció en el fallo- permitió el acceso a una supuesta página web de la que el tribunal tomó datos e infirió conclusiones incorporadas al pronunciamiento, que gravitaron como factores esenciales de la decisión bajo censura…Tal circunstancia -sin más- alcanza para evidenciar el absurdo incurrido por el juzgador de grado, en tanto la definición censurada se exhibe desprovista de sustento probatorio idóneo, apoyándose -en definitiva- en su exclusivo arbitrio (conf. causa L. 49.062, “Dutkiewics”, sent. del 4-VIII-1992)…”. SCBA. “Barbas, Juan Alberto contra Racing Club Asociación Civil. Diferencias salariales”, sentencia del 28 de noviembre del 2018 (L. 120.519), la Suprema Corte bonaerense volvió a expedirse sobre la temática, particularmente con relación a la recolección oficiosa -al tiempo del dictado de la sentencia definitiva- de información existente en la página web del club demandado, reflexionando sobre si tales elementos pueden ser valorados en la causa o por el contrario resultan violatorios de las reglas del debido proceso. Otra vez, el Alto Tribunal no dejo lugar a dudas, remarcando que: “…el ejercicio de las facultades conferidas en el art. 12 de la ley 11.653 encuentra un límite infranqueable en el respeto a la igualdad de quienes se hallan involucrados en el proceso. Durante el litigio, las partes deben soportar diversas cargas y no es la menor la de aportar las pruebas que hacen a su derecho. La omisión en que alguna incurriera en su ofrecimiento (lo que podemos ver claramente en el caso) no puede ser suplido por la actividad del juez, porque incorporarla sin más al proceso impediría el apropiado control de su producción y, con ello, se afectaría el derecho de defensa constitucionalmente amparado. Los datos que surgen de la página web citada (que, además, no son fehacientes) no pueden ser usados para probar la antigüedad del actor…”.
[13] GOZAINI, O. A. El debido proceso. Derecho Procesal Constitucional. Rubinzal Culzoni. Santa Fe. Pág. 262/263.
[14] Cita.