Banner Edicion Impresa

Monitor Software


Las tendencias de ciberseguridad en 2025

Las tendencias de ciberseguridad en 2025
La compañía internacional ESET expone diversas prácticas en el sector que definirán el entorno digital el próximo año

Publicación:02-12-2024
++--

Es un hecho que las cifras sobre ciberseguridad no son nada alentadoras a nivel mundial.

Ciudad de México.-  En este sentido, América Latina fue una de las regiones con mayor número de amenazas activas, al menos durante el primer semestre del 2024.

De acuerdo con ESET, la compañía de ciberseguridad con sede en Eslovaquia, los cinco países latinoamericanos con mayor número de amenazas son Perú, México, Ecuador, Brasil y Argentina.

A lo largo de esta zona se han distribuido 2.6 millones de muestras únicas de malware, entre las cuales se incluyen inyectores, troyanos, downloaders, gusanos, exploits, spyware y doopers.

Además del ransomware, el phishing también ha tenido impacto en la región. ESET identificó casi 2 millones de muestras únicas desde México hasta Argentina en la primera mitad del año.

Estas dos amenazas, hasta el momento, son de las más fuertes a nivel mundial. Asimismo, se reforzarán con el uso de nuevas tecnologías como la inteligencia artificial generativa para 2025.

IA generativa, un arma de doble filo

El uso de nuevas tecnologías como la inteligencia artificial generativa ha ayudado al mundo de la ciberseguridad en diferentes aspectos, tales como automatizar la detección y respuesta a incidentes, realizar simulaciones de ataques avanzados y fortalecer el sistema de detección de anomalías.

Sin embargo, también ha propiciado que las amenazas sean más sofisticadas por su potencial. Dicho de otro modo, los ciberdelincuentes la observan como un arma avanzada.

"La inteligencia artificial generativa, hoy por hoy, es la más utilizada por los cibercriminales para poder llevar a cabo acciones con fines maliciosos", aseguró Fabiana Ramírez Cuenca, investigadora del Laboratorio de ESET Latinoamérica, durante la celebración del 20 aniversario de la compañía en el continente, desde Buenos Aires, Argentina.

La investigadora aseguró que los deepfakes y la creación de códigos maliciosos son solo algunas de las formas en las que se utilizará esta herramienta y que destacarán el próximo año, pues los ciberdelincuentes la aprovecharán para engañar a los usuarios y sus sistemas de defensa.

"Podríamos esperar, para el siguiente año, la continuidad del uso de la IA generativa para la mejora de campañas que inicien con ingeniería social; el aprovechamiento de los algoritmos para el diseño de códigos maliciosos; el posible abuso de aplicaciones de compañías que usen algoritmos IA open source, y la sofisticación de los deepfakes", señaló la experta en un comunicado de ESET.

Los desafíos legales y éticos

Aunque el panorama no parece alentador respecto al tema de ciberataques, se espera que este contexto propicie que las instituciones correspondientes implementen regulaciones claras y efectivas.

"En la actualidad, existen muy pocas normas a nivel internacional que aborden las problemáticas emergentes del uso de la IA, y aquellas que existen muchas veces resultan insuficientes frente a un panorama de desarrollo acelerado de esta tecnología", aseguró Ramírez Cuenca de ESET.

América Latina, por ejemplo, no ha tenido grandes avances al respecto. Sin embargo, se espera que normas como el Acta de inteligencia artificial de la Unión Europea puedan tomarse en cuenta para el avance en la materia. De acuerdo con Ramírez Cuenca, esta acta es de las más completas y quizá "la única que funcione como tal", por ende, puede servir de inspiración para las normas que se implementen en el resto del mundo.

"Los objetivos de esta son tratar de garantizar la transparencia y explicabilidad de cómo funcionan los algoritmos, establecer quién es responsable en los daños que ocasione y proteger los derechos humanos frente al uso de la inteligencia artificial", complementó la investigadora en conferencia.

Además, destacó que uno de los enfoques más interesantes que trae consigo esta normativa está relacionada con la clasificación de la IA según sus riesgos que va del mínimo al inaceptable.

También en la cuestión ética, se espera que para 2025 haya un mayor cuestionamiento sobre el crecimiento de la IA generativa y sus implicaciones.

Algunas de las preguntas que estarán en boga son: ¿quién es responsable por los actos maliciosos que genere la IA?, ¿cuáles son los límites que debe tener su desarrollo?, ¿qué organismo es competente para juzgar los delitos generados con IA?

 



« Especial »