Milagros Denise Tallarico (*)
Silicon Valley Arbitration & Mediation Center (SVAMC) publicó la primera edición de las “Directrices de la SVAMC sobre el uso de la inteligencia artificial en el arbitraje’’. Este documento proporciona un marco general que reconoce tanto las oportunidades como los desafíos que las herramientas de inteligencia artificial generativa presentan en el ámbito del arbitraje, sin sustituir las leyes o regulaciones existentes.
En este contexto, las mismas pretenden ser un recurso valioso para los participantes del arbitraje, desde instituciones hasta árbitros y partes, promoviendo así una adopción informada y ética de la IA en los procedimientos arbitrales internacionales.
Las directrices se dividen en Guía para todos los participantes del arbitraje, para las partes, sus representantes y árbitros. Entre ellas se destacan:
- Guía para todos los participantes del arbitraje
- Comprensión de los usos, limitaciones y riesgos
Los modelos de lenguaje grandes y otras herramientas de inteligencia artificial se entrenan utilizando conjuntos de datos y parámetros específicos, y sus capacidades son una función de ese entrenamiento particular. Incluso las herramientas más avanzadas exhibirán sesgos y puntos ciegos resultantes de limitaciones en los protocolos de entrenamiento. Además, las herramientas de IA de propósito general pueden no ser adecuadas para tareas que requieran conocimientos especializados o información específica del caso.
Es por ello que, todos los participantes involucrados en procedimientos de arbitraje que utilicen herramientas de inteligencia artificial en la preparación o durante un arbitraje son responsables de familiarizarse con los usos previstos de la herramienta de inteligencia artificial y deberían adaptar su uso en consecuencia. En caso de utilizarla, se deberán hacer esfuerzos razonables para comprender las limitaciones, sesgos y riesgos relevantes de cada herramienta y, en la medida de lo posible, mitigarlos.
- Protección de información
En el arbitraje internacional todos los participantes son responsables de asegurar que el uso de herramientas de IA sea consistente con sus obligaciones de proteger la información confidencial. Se deberá evaluar las políticas de uso y retención de datos ofrecidas por las herramientas de IA disponibles y optar por soluciones seguras. Cuando sea apropiado, los participantes deben redactar o anonimizar los materiales enviados a una herramienta de IA.
- Divulgación
Como norma general, no es necesario divulgar que se utilizaron herramientas de IA en relación con un arbitraje. Las decisiones respecto a la divulgación del uso de herramientas de IA se tomarán caso por caso teniendo en cuenta las circunstancias relevantes del caso.
1. Guía para partes y sus representantes
- Deber de diligencia en su uso
Se considerará que las partes y los representantes de las partes en el registro son responsables de cualquier error o inexactitud no corregida en cualquier salida producida por una herramienta de IA que utilicen en un arbitraje.
- Respeto por la integridad de los procedimientos
Las partes y los representantes de las partes no deberán utilizar ninguna forma de IA de manera que afecte la integridad del arbitraje o de otro modo interrumpa la conducción de los procedimientos. No deberán utilizar ninguna forma de IA para falsificar pruebas, comprometer la autenticidad de las pruebas o de otro modo engañar al tribunal arbitral y/o a la(s) parte(s) contraria(s).
2. Guía para árbitros
- No delegación de responsabilidades de toma de decisiones
Un árbitro no deberá delegar ninguna parte de su mandato personal a ninguna herramienta de IA. Este principio se aplicará especialmente al proceso de toma de decisiones del árbitro. El uso de herramientas de IA por parte de los árbitros no sustituirá su análisis independiente de los hechos y la normativa.
Esta directriz recuerda a los árbitros que, incluso a medida que la tecnología evoluciona, su responsabilidad personal en la toma de decisiones sigue siendo primordial. Las herramientas de IA pueden mejorar la eficiencia y proporcionar información, pero el árbitro debe tomar las decisiones finales, preservando el elemento humano esencial para la equidad y la integridad de los procedimientos de arbitraje.
- Respeto al debido proceso
Cuando una herramienta de IA no pueda citar fuentes que puedan ser verificadas de manera independiente, un árbitro no deberá asumir que tales fuentes existen o son caracterizadas con precisión por la herramienta de IA. Se enfatiza la responsabilidad del árbitro de evitar asumir la existencia de fuentes autorizadas a partir de las salidas de IA e insta a los árbitros a evaluar la confiabilidad de la información derivada de manera independiente y crítica. Los árbitros, al igual que las partes y los representantes de las partes, deben evaluar de manera independiente y crítica la información derivada de la IA para garantizar su confiabilidad.
Consideraciones
Las “Directrices de la SVAMC sobre el uso de la inteligencia artificial en el arbitraje’’ sobre inteligencia artificial nos resalta los desafíos fundamentales que enfrenta la utilización de esta tecnología, desde la necesidad de abordar sesgos y limitaciones en los conjuntos de datos hasta la importancia del deber de diligencia en su uso.
La eficacia de las herramientas de inteligencia artificial generativa depende en gran medida de la calidad del entrenamiento y la relevancia de los datos proporcionados. Además, resalta la importancia de un enfoque ético y responsable en el desarrollo y despliegue de la IA.
FUENTE
SVAMC Guidelines on the Use of Artificial Intelligence in Arbitration – (30.04.2024) https://svamc.org/wp-content/uploads/SVAMC-AI-Guidelines-First-Edition.pdf
(*) Milagros Denise Tallarico. Abogada graduada de la Universidad Nacional de Lomas de Zamora (UNLZ). Legal Analytics Universidad Torcuato Di Tella (UTDT). Semi Sr. Associate en Alfaro Abogados.