La senadora Claudia Edith Anaya Mota presentó una iniciativa de reformas al Código Nacional de Procedimientos Penales con el propósito de reforzar la pericia técnica y los protocolos de manejo de evidencia digital para poder demostrar la autenticidad de la prueba ante la amenaza de la manipulación algorítmica.
La iniciativa de la legisladora priista alerta sobre el uso de la Inteligencia Artificial (IA) y la facilidad para crear contenido falso, motivo por el que los jueces enfrentan el desafío de distinguir si la prueba es verdadera mediante la aplicación y adaptación de los principios y herramientas ya existentes en el derecho procesal, con un énfasis creciente en la prueba pericial digital y los protocolos de cadena de custodia.
Advierte que ante la aparición y uso de esa tecnología es indispensable observar que la IA sea utilizada de manera adecuada en beneficio de la sociedad, en cuyo caso se requiere que se profundice en el conocimiento de sus alcances, y evitar que en un proceso penal sea utilizada en perjuicio de las personas.
Su iniciativa busca evitar que ante el vacío legal existente una víctima no tenga la posibilidad de defensa, como sucedió recientemente cuando una persona juzgadora rechazó una prueba que presentó la defensa de una detenida, consistente en un video de 39 minutos en el que se da cuenta de golpes, amenazas y el uso de gas lacrimógeno con el argumento o suposición de que podría haber sido alterado con IA.
"Es preocupante que hoy en día un órgano jurisdiccional pueda desechar una prueba de descargo, simplemente bajo el argumento de que la misma pudiera ser producto de una manipulación de la Inteligencia Artificial, sin mediar una mayor valoración pericial que permita sostener una afirmación de esa naturaleza", subraya la senadora Anaya Mota en su iniciativa.
En este sentido, la senadora por Zacatecas propone adicionar el párrafo segundo del artículo 265 del Código Nacional de Procedimientos Penales para que los órganos jurisdiccionales realicen su función de impartir justicia con base en criterios objetivos, verificables y con el auxilio de peritajes técnicos para evitar que sus decisiones sean tomadas con base en simples suposiciones personales.
Cabe mencionar que, en México, 48% de los ciudadanos ya utilizan inteligencia artificial (IA) de manera cotidiana, 28% aún no lo hacen debido a falta de conocimiento y 24% no la consideran necesaria, indicó el estudio Retos y perspectivas del trabajo: revelando las claves de la evolución laboral, elaborado por WeWork y PageGroup.
Aunque la adopción de esta tecnología sigue creciendo, 21% de los mexicanos muestran reservas sobre el impacto de la inteligencia artificial en el futuro y manifiestan su preocupación por los cambios que podría generar en el mercado laboral y en la privacidad de sus datos.
"A pesar de esta inquietud, la mayoría de los participantes reconoce el valor de la IA, pues 94% de los encuestados considera que la IA puede mejorar los procesos en diversos sectores, mientras que 78% asegura que su productividad ha aumentado gracias a su uso.
"Sin embargo, el miedo a sus efectos a largo plazo, especialmente en términos de empleo y seguridad, sigue siendo una preocupación central", explicó.
La implementación masiva de la IA ha traído consigo una serie de riesgos que podría tener repercusiones tanto a nivel personal como organizacional, agregó. Entre los peligros más destacados se encuentran filtración de datos sensibles, pues el uso inapropiado de datos personales en plataformas de inteligencia artificial puede vulnerar la privacidad, deep fakes y desinformación, ya que la capacidad de la IA para crear contenido falso puede alimentar la propagación de información errónea, así como ciberataques avanzados, debido a que los cibercriminales utilizan IA para perfeccionar técnicas de ataque.