Inteligencia Artificial (IA) y ciberseguridad

Imagen decorativa - Inteligencia Artificial (IA) y ciberseguridad

La inteligencia artificial es un tema fascinante y de gran relevancia en el mundo tecnológico actual. En esta página se explora esta herramienta tan poderosa que ha revolucionado numerosos campos, la cual puede ser utilizada para fines muy útiles, pero también con objetivos maliciosos, todo depende de quién la utilice y para qué. Las amenazas basadas en IA son una realidad emergente que requieren atención.

¿Qué es la IA?

La inteligencia artificial (IA) permite a las máquinas imitar el comportamiento humano. Esto se logra programando y enseñando a las máquinas a realizar tareas que normalmente requerirían de inteligencia humana, como la comprensión de un lenguaje o la toma de decisiones. La IA mejora constantemente gracias a algoritmos cada vez más sofisticados que procesan grandes cantidades de datos. 

Entre las principales características de los sistemas IA encontramos las siguientes: 

  • Recibe datos o información de humanos u otras máquinas. 
  • Actúa con autonomía para lograr un objetivo. 
  • Ofrece predicciones o decisiones. 
  • Aprende de sus acciones para mejorar su rendimiento.

Tipos de IA

Los Sistemas de IA se clasifican en función de su uso y propósito. 

  • Los Sistemas de IA de propósito general son versátiles y no están limitados a un sector específico. 
    • Ejemplos: asistentes virtuales como Siri y Alexa, o herramientas web como ChatGPT y Copilot.
  • Los Sistemas de IA de alto riesgo pueden influir en decisiones importantes sobre temas de salud, seguridad o los derechos fundamentales. 
    • Ejemplos: dispositivos médicos, formación, selección de personal, procesos democráticos, etc.
  • Los Sistemas de IA prohibidos son aquellos que pueden causar daño físico o psicológico modificando el comportamiento de una persona. 
    • Ejemplo: cualquier vídeo, imagen o noticia falsa que distorsione el comportamiento de una persona o explote sus vulnerabilidades causándole daño.

Dónde podemos encontrar sistemas basados en IA

Como ya se ha mencionado anteriormente, los sistemas basados en IA son capaces de aprender de los datos, reconocer patrones, tomar decisiones y adaptarse a nuevas situaciones sin la necesidad de intervención humana. Debido a estas habilidades, la IA tiene una variedad de aplicaciones en muchos campos, incluyendo la atención médica, la educación, la manufactura y las finanzas.

Áreas de uso y ejemplos reales: 

  • Salud y medicina: la IA puede analizar imágenes médicas para ayudar en el diagnóstico de enfermedades como el cáncer o las enfermedades cardiovasculares. 
  • Educación: los sistemas IA pueden adaptar el contenido educativo a las necesidades individuales de los estudiantes, proporcionando recomendaciones personalizadas y retroalimentación en tiempo real. 
  • Automatización y fabricación: la IA puede analizar grandes cantidades de datos para optimizar la cadena de suministro, predecir la demanda de productos y mejorar la gestión del inventario. 
  • Transporte: los vehículos autónomos utilizan la IA para percibir su entorno y tomar decisiones en tiempo real para una conducción más segura. 
  • Finanzas: la IA puede analizar grandes volúmenes de datos financieros para predecir tendencias del mercado, identificar oportunidades de inversión y evaluar riesgos.

¿Para qué usan la IA los ciberdelincuentes?

A continuación, mencionamos algunos usos típicos de los sistemas IA por parte de los ciberdelincuentes:

  • Mejora de código malicioso: los creadores de malware utilizan plataformas IA, como puede ser ChatGPT para acelerar la creación de su código, solicitando funcionalidades específicas que luego integran en sus códigos maliciosos. 
  • Generación de spam, phishing u otras amenazas: los ciberdelincuentes la utilizan para generar correos electrónicos de spam, phishing, mensajes SMS de smishing, etc. aprovechando su capacidad para crear texto creíble en varios idiomas. La IA también puede generar anuncios que promocionan productos falsos o servicios fraudulentos.
  • Desinformación: la facilidad para generar contenido de distinta tipología (texto, imagen, vídeos y audio) por parte de los sistemas IA es aprovechada para la creación de contenido falso para su posterior distribución. 
    • Fake news: las noticias falsas son artículos o informes creados para engañar, a menudo diseñados para parecer que provienen de fuentes legítimas. Las IA pueden generar textos coherentes y persuasivos que imitan el estilo de los periodistas profesionales, lo que dificulta distinguir la verdad de la ficción. 
    • Deepfakes: son un tipo avanzado de contenido falso que emplea técnicas complejas para crear vídeos y audios en los que personas reales parecen decir o hacer cosas que nunca ocurrieron. Esta tecnología puede ser utilizada tanto para entretenimiento como para actividades maliciosas, y su realismo puede hacer que sea extremadamente difícil identificar la falsificación sin herramientas especializadas. Los deepfakes se dividen principalmente en dos categorías:
      • Deepfaces: son vídeos en los que los rostros de las personas han sido alterados digitalmente para que parezcan otros. Esta tecnología puede ser usada para crear vídeos falsos de políticos, celebridades, o cualquier individuo, haciendo que parezca que dicen o hacen cosas que no se ajustan a la realidad.
      • Deep voices o voice hacking: en este caso, son manipulaciones de audio donde la voz de una persona es clonada y utilizada para generar discursos o declaraciones falsas. Esto puede ser especialmente peligroso cuando se utiliza para falsificar declaraciones de políticos, artistas, periodistas o cualquier otra persona con reconocimiento y repercusión pública.
  • Evasión de censura: a pesar de que muchos sistemas de IA están programados para no dar respuestas sobre temas ilegales o controvertidos, algunos usuarios buscan saltarse estas restricciones compartiendo métodos para liberar la versión de estos y usarlo sin limitaciones éticas. 
  • Creación de perfiles falsos: la IA puede crear perfiles de usuario falsos en distintas plataformas (foros, redes sociales, aplicaciones de mensajería instantánea, etc.) que se utilizan para difundir mensajes maliciosos o que intentan recopilar datos personales o bancarios a través de interacciones con otros usuarios. Algunos ejemplos:
    • Estafas de citas en línea: los estafadores utilizan chatbots para crear perfiles falsos en aplicaciones de citas y engañar a los usuarios para que proporcionen dinero o información personal. 
    • Manipulación de opiniones y reseñas: los chatbots pueden publicar reseñas falsas o manipuladas en sitios web y redes sociales, influyendo en la opinión que pueden tener los usuarios de un producto o servicio. 
    • Fraude de soporte técnico: los ciberdelincuentes crean chatbots que se hacen pasar por agentes de soporte técnico reales e intentan engañar a los usuarios para que proporcionen acceso remoto a sus dispositivos o información personal.

Cómo los ciberdelincuentes generan contenido falso con IA

La capacidad de la IA para generar contenido falso ha sido rápidamente adoptada por ciberdelincuentes con diversos propósitos, desde el fraude y la difamación hasta la manipulación política y social. Estos utilizan herramientas avanzadas para crear textos, imágenes, vídeos y audios falsos que pueden parecer extremadamente convincentes. A continuación, exploramos algunas de las principales herramientas y técnicas que utilizan los ciberdelincuentes para generarlos:

  • Generadores de texto: herramientas avanzadas, como ChatGPT, pueden crear artículos completos y coherentes que imitan el estilo de los periodistas profesionales. Estas herramientas permiten la difusión de fake news, diseñadas para desinformar y manipular la opinión pública. 
  • Generación de vídeos: programas como DeepFaceLab permiten la creación de deepfaces, permitiendo la alteración de vídeos de manera que sean casi indistinguibles de los reales. Estos programas utilizan redes neuronales para mapear y superponer rostros, creando vídeos falsos de políticos, celebridades o cualquier individuo. 
  • Clonación de voz: el software especializado en clonación de voz, como Lyrebird, puede replicar con alta precisión la voz de cualquier persona. Estas herramientas generan deepvoices, audios falsos que pueden ser utilizados para difundir declaraciones o discursos que nunca fueron pronunciados por la persona en cuestión, engañando así a quienes los escuchan.

Caso real: Fraude usando la voz de un familiar creada con Inteligencia Artificial. En este caso, los ciberdelincuentes utilizaron IA para clonar la voz de un familiar cercano de la víctima. La voz clonada fue utilizada en una llamada telefónica en la que el presunto "familiar" solicitaba dinero de manera urgente debido a una emergencia. La víctima, al reconocer la voz y creer en la autenticidad de la llamada, accedió a transferir una suma de dinero considerable a la cuenta proporcionada por los delincuentes.

Pistas para identificar contenido falso generado por IA

A continuación, se presentan algunas pistas para detectar posible contenido falso generado con inteligencia artificial:

  1. Verifica la fuente: asegúrate de que el contenido proviene de una fuente confiable o con buena reputación. Desconfía de las noticias de sitios web o perfiles desconocidos para ti. Consulta su reputación y comprueba si otros medios o usuarios confiables se hacen eco de la misma información. 
  2. Analiza la calidad del contenido: presta atención a ciertos detalles para desenmascararlos en función del tipo de contenido: 
    1. Texto: 
      1. Coherencia y gramática: verifica si el texto tiene errores gramaticales o incoherencias que no son comunes en artículos escritos por humanos. 
    2. Vídeo: 
      1. Parpadeos y movimientos faciales: los deepfakes a menudo presentan un número anormal de parpadeos o movimientos faciales poco naturales. 
      2. Incongruencias entre el rostro y el cuerpo: observa si hay desajustes entre la expresión facial y los movimientos corporales. 
      3. Calidad del sonido: el sonido puede no concordar con la imagen, mostrando desfases o variaciones en el tono que no corresponden con la escena. 
    3. Audio: 
      1. Tono y ritmo: analiza si el tono de voz y el ritmo del habla son consistentes. Las clonaciones de voz pueden presentar variaciones inusuales. 
      2. Ruido de fondo: la falta de ruido de fondo o la presencia de sonidos extraños puede indicar manipulación. 
      3. Contexto del discurso: verifica si el contenido del discurso es consistente con lo que la persona normalmente diría o en el contexto en el que suele hablar.
    4. Imagen: 
      1. Detalles finos: pueden tener fallos en ciertos detalles, como manos con dedos desproporcionados o fondos que no se alinean correctamente. 
      2. Iluminación y sombras: revisa si la iluminación y las sombras son coherentes en toda la imagen.

Herramientas útiles para identificar contenido falso generado por IA

Para complementar los consejos facilitados anteriormente, es esencial emplear técnicas prácticas que permitan una verificación más profunda y técnica del contenido. A continuación, se describen algunas herramientas que pueden servir de ayuda: 

  1. Detectores de IA para texto: Existen varias herramientas diseñadas para analizar textos y detectar si han sido generados artificialmente. Mostramos algunos ejemplos:
    1. plagiarismdetector: analiza patrones lingüísticos y estructuras gramaticales para indicar un tanto por ciento de posibilidades de que sea generado artificialmente.
    2. GPTZero: tiene la capacidad de detectar contenido generado por modelos como ChatGPT y GPT-4. Muestra los porcentajes de probabilidad de autoría humana o IA, y resalta las secciones sospechosas.
    3. Copyleaks: proporciona un análisis detallado a nivel de oración para detectar contenido generado por IA con una alta precisión.
  2. Herramientas de detección de multimedia: Para detectar deepfakes y otros tipos de contenido multimedia generado por IA, estas herramientas pueden ser muy útiles:
    1. VerifAI, una web respaldada por la empresa Telefónica que detecta en pocos segundos si un contenido ha sido generado o alterado con IA.
    2. Resemble Detect detecta audios generados con IA.
    3. Deepware: permite analizar vídeos y detectar deepfakes mediante un análisis exhaustivo que identifica alteraciones y anomalías.
    4. Illuminarty: proporciona análisis avanzado para detectar deepfakes en imágenes, utilizando inteligencia artificial para identificar discrepancias y manipulaciones.
    5. AI or Not: permite a los usuarios cargar imágenes y audios para verificar si han sido manipulados o generados por inteligencia artificial.
    6. VerificAudio: ayuda a verificar, enviando a un equipo especializado, voces sintéticas.

 

 

Imagen encuesta de valoración servicios OSI

Ayúdanos a mejorar

 

Tu opinión es muy importante para nosotros.