INICIO > General

Para los fiscales, ChatGPT debería incorporarse a la práctica diaria del derecho, pero con cautela.

Para estas organizaciones, el potencial de ganancias es muy alto, siempre que se tomen las debidas precauciones, especialmente en lo que respecta a la custodia de datos.

Ilustración con los logos de OpenAI y ChatGPT (Foto: REUTERS/Dado Ruvic)

Por Danilo Vital, conjur - Según varias unidades del Ministerio Público brasileño, los riesgos que conlleva el uso de herramientas de inteligencia artificial como ChatGPT no son suficientes para recomendar su prohibición. Al contrario: para estos organismos, las perspectivas de obtener ventajas son muy altas, siempre que se tomen las debidas precauciones, especialmente en materia de seguridad de datos.

 Esta conclusión se basa en declaraciones enviadas al Consejo Nacional del Ministerio Público, que analiza el tema para decidir si procede regular el uso de este tipo de tecnologías mediante una resolución.

 La discusión fue planteada por el abogado Fábio de Oliveira Ribeiro, quien pidió al CNMP (Consejo Nacional del Ministerio Público) prohibir a los fiscales brasileños utilizar el ChatGTP para elaborar o fundamentar acusaciones, pedidos de sobreseimiento y otras declaraciones en los casos específicos en que están involucrados.

 La solicitud de acción fue desestimada sumariamente por el concejal Gustavo Badaró. El abogado apeló y convenció al ponente con un argumento sobre el destino de cualquier información que pudiera proporcionarse a estas herramientas: «Se almacenará en la base de datos de ChatGTP. Por lo tanto, al utilizarla, el fiscal incumplirá su deber de preservar la confidencialidad de la información a la que tiene acceso».

 En una decisión de abril, Badaró sugirió a los Fiscales Generales e Inspectores Generales del Ministerio Público que informaran a sus unidades sobre los riesgos de divulgar información procesal sensible, confidencial o personal en bases de datos privadas, que no están sujetas a la supervisión ni al control del Estado. También solicitó declaraciones de las respectivas Secretarías de Tecnología al respecto.

 Hasta la fecha, ha recibido 20 respuestas, entre ellas una nota técnica elaborada por el Grupo Nacional de Informática del Consejo Nacional de Procuradores Generales de la República, integrado por miembros y personal de las procuradurías de justicia estatales y federales y apoyado por diversas unidades del organismo.

Prohibido prohibir - Si hay un punto de consenso entre las distintas ramas del Ministerio Público brasileño respecto a la inteligencia artificial, es que prohibir su uso no es aconsejable. Según la Asociación Nacional de Miembros del Ministerio Público (Conamp), la IA pronto se integrará en los motores de búsqueda. Sería como si, hace 20 años, el CNMP (Consejo Nacional de Fiscales Públicos) hubiera regulado el uso de Google.

 El Ministerio Público de Paraná argumenta que ha llegado el momento de comprobar la compatibilidad entre el uso de la inteligencia artificial y las normas éticas y los derechos fundamentales. Y que la institución no puede, en este momento histórico, quedarse anclada en el pasado ante dificultades incluso regulatorias.

 “Existe el riesgo de convertirse en una institución obsoleta o desmoralizada frente a los despachos de abogados, las plataformas privadas de resolución de disputas (conocidas como ODR) e incluso el Poder Judicial, que ya utilizan sistemas de inteligencia artificial para resolver disputas”, afirma el Ministerio Público de Paraná en su presentación al CNMP (Consejo Nacional de Ministerios Públicos).

 Incluso la regulación propuesta se desaconseja. Esto se debe a que mecanismos como ChatGPT están en constante desarrollo y evolución, y el escenario actual no es lo suficientemente estable como para definir su uso, riesgos e incluso beneficios. Cualquier regulación que se emita hoy sobre el tema podría quedar obsoleta en cuestión de meses.

 El Ministerio Público de Santa Catarina sugiere que el Consejo Nacional de Fiscales Públicos (CNMP) se limite a emitir una recomendación que defina las pautas de uso adecuadas. También solicita un debate amplio y continuo sobre el uso de estas tecnologías para garantizar que las precauciones requeridas no impidan que el Ministerio Público brasileño se mantenga al día con los avances tecnológicos.

 El Ministerio Público Federal, a su vez, considera que cualquier decisión sobre estas tecnologías, ya sea prohibirlas o adoptarlas, es prematura. Como ejemplo, incluyó en su comunicado las respuestas de ChatGPT a la pregunta "¿Cuáles son los principales riesgos del uso de herramientas de inteligencia artificial en el Poder Judicial?".

Relación costo-beneficio Según declaraciones de los fiscales, las perspectivas para el uso de la IA son muy buenas, tanto para las actividades administrativas como para las judiciales. En una institución con recursos y personal limitados, la posibilidad de procesar y analizar grandes volúmenes de datos, además de facilitar las tareas rutinarias, resulta atractiva.

 Conamp cita dos ejemplos triviales: la búsqueda de autores que hayan abordado un campo específico del derecho en sus obras y la investigación de antecedentes penales. Al fin y al cabo, la organización se pregunta: ¿por qué alguien debería realizar estas tareas manualmente si la inteligencia artificial es capaz de proporcionar respuestas en cuestión de segundos?

 El Ministerio Público del Trabajo, a su vez, cita el uso de IA para crear resúmenes, revisar textos, generar borradores y clasificar material. Y el Ministerio Público de Maranhão concluye que tiene un potencial innegable como recurso para respaldar análisis y decisiones en el ámbito de las actividades ministeriales.

 Según la Procuraduría, ChatGPT y herramientas similares pueden incluso ser entrenadas para buscar palabras clave y otros indicadores de posibles fraudes, corrupción y otras actividades ilegales, lo que se traduce en una mayor efectividad en el combate a estas prácticas.

 Los problemas mencionados por la agencia no difieren de los que suelen señalar los expertos en tecnología. Las soluciones de inteligencia artificial pueden ofrecer respuestas falsas, erróneas o sesgadas porque están sujetas a la manipulación maliciosa de los datos que alimentan su algoritmo. Algunas de ellas son opacas en cuanto a su funcionamiento, lo que dificulta la evaluación crítica de sus resultados.

 Estos programas no cumplen con los estándares éticos, sociales, culturales, ambientales ni de cumplimiento. El principal riesgo reside en el uso de datos personales y sensibles bajo la custodia del Ministerio Público. Sin embargo, incluso esta preocupación encuentra una respuesta adecuada en las presentaciones ante el Consejo Nacional de Fiscalías Públicas (CNMP).

¿De quién es la base de datos? El dictamen del Consejo Nacional de Procuradores Generales profundiza en el tema al explicar que existen dos maneras de usar ChatGPT. Una es mediante API (Interfaces de Programación de Aplicaciones) o almacenamiento en la nube en el repositorio central. En este caso, todos los datos ingresados ​​a la herramienta sirven para entrenarla y mejorarla, pasando a formar parte de su base de conocimientos.

 Es dentro de este modelo que surge la posibilidad de tráfico internacional de datos personales e incumplimiento de la Ley General de Protección de Datos (LGPD). Varias comunicaciones enviadas a la CNMP sugieren la anonimización de documentos como solución y recomiendan extremar la precaución al introducir la información.

 Otra forma de usar ChatGPT ofrece una alternativa viable: con centros de datos o instancias en la nube aislados del repositorio central. En este caso, el modelo de IA se entrena y se alimenta con datos de la propia organización, sin compartir esta base de conocimiento con la base de datos general.

 De esta manera, es posible aprovechar al máximo la herramienta, utilizando los datos de la organización de forma segura. Además, este enfoque permite un mayor control sobre el procesamiento y almacenamiento de datos, reduciendo el riesgo de fugas de información confidencial y violaciones de la privacidad, resume el documento del Consejo.

 La Fiscalía del Trabajo, a su vez, añade al debate la posibilidad de incluir cláusulas de confidencialidad, secreto y alojamiento en los términos de uso de los productos de software que pueda utilizar la agencia. La Procuraduría General de la República sugiere capacitar a los usuarios internos y definir un método de uso seguro y estandarizado.

 Todo esto apunta a una evolución y maduración en el uso de la IA por parte del Ministerio Público. El Ministerio Público de Paraíba afirma que estas tecnologías generan una "concienciación sobre la responsabilidad de las áreas de auditoría y gestión de riesgos, así como sobre la necesidad de definir e implementar procesos claros, así como su seguimiento".

 El Ministerio Público de Río de Janeiro enumera, entre las medidas de mitigación de riesgos, la creación de órganos de supervisión independientes, la transparencia en el uso de algoritmos y herramientas de IA y la integridad en la protección de datos e información, además de buenas prácticas de privacidad por diseño y cumplimiento.

 Según el Ministerio Público de Paraná, la mejor solución es establecer acuerdos con empresas que presten el mismo servicio, incluyendo cláusulas que garanticen el tratamiento adecuado de los datos personales. «De esta manera, la responsabilidad del tratamiento de datos quedará estipulada en un contrato, lo que permitirá al agente ministerial utilizar la plataforma sin riesgo de infringir la Ley General de Protección de Datos».

Todo el mundo lo usa - El tono de "punto de no retorno" con el que la mayoría de los alegatos enviados al CNMP (Consejo Nacional del Ministerio Público) abordan el uso de la inteligencia artificial se refuerza en el documento del Ministerio Público de Paraíba, que destaca que el Colegio de Abogados de Brasil no prohibió a los abogados el uso de las herramientas, e incluso las incentivó. "El propio representante, hasta donde se sabe, no solicitó la aplicación de una medida prohibitiva equivalente ante su órgano de representación", afirma el documento.

 Fábio de Oliveira Ribeiro ha experimentado personalmente los riesgos de usar ChatGPT como abogado. En abril, utilizó la herramienta para crear una petición en uno de los casos en los que el Tribunal Superior Electoral juzgará al expresidente Jair Bolsonaro por abuso de poder político. El ministro Benedito Gonçalves le impuso una multa de R$ 2,6 por litigio de mala fe.

 El incidente se aprovechó para solicitar al Consejo Nacional de Justicia que prohibiera a los jueces tomar decisiones con ChatGPT. El tema está siendo analizado por la Comisión de Tecnologías de la Información e Innovación. Tras emitir su dictamen, el Pleno del CNJ podrá instruirlo y considerarlo debidamente.

 El abogado también solicitó al Ministerio de Justicia la elaboración de un proyecto de ley que prohíba específicamente a los jueces brasileños el uso de la tecnología para la toma de decisiones. Y el tema no escapa al Poder Judicial. Un experto en la materia, el ministro Ricardo Villas Bôas Cueva del Tribunal Superior de Justicia (STJ), ha expresado su opinión sobre la necesidad de que la sociedad en su conjunto establezca un marco regulatorio para la inteligencia artificial.