ChatGPT y otras herramientas al alcance del usuario y cómo protegerse

ChatGPT se ha convertido en el tema de conversación por la innovación que supone gracias a su facilidad de uso.  Es un modelo de lenguaje de inteligencia artificial desarrollado por OpenAI para procesar lenguaje natural y responder a preguntas y conversaciones en línea. Si bien esta es una herramienta valiosa para muchas personas y organizaciones, también presenta riesgos potenciales en términos de seguridad cibernética.

Aunque ChatGPT no almacena información de los usuarios ni tiene acceso a información personal, a menos de que se le proporcione, los ciberdelincuentes pueden utilizar técnicas de ingeniería social y otras tácticas para engañar a los usuarios y obtener información confidencial. “Como modelo de lenguaje basado en la inteligencia artificial, ChatGPT es una herramienta atractiva para los ciberdelincuentes, ya que puede ser utilizada para acceder a información personal y confidencial. Esto puede incluir información de inicio de sesión, detalles de la cuenta, direcciones de correo electrónico y otra información sensible”, comenta Adib Manssur, Sales Engineer Manager de Hillstone Networks para la región NOLA.

De acuerdo con el ejecutivo: “Todas las herramientas tecnológicas, por buenas que sean, pueden ser usadas para fines negativos. Con respecto a ChatGPT, los ciberdelincuentes pueden aprovechar la herramienta para crear mensajes de phishing aún más creíbles, para robar los datos sensibles de las personas”.

Para reducir los riesgos de seguridad cibernética asociados con ChatGPT es importante seguir algunas prácticas de seguridad recomendadas, como no proporcionar información personal confidencial a ChatGPT, no hacer clic en enlaces sospechosos que se envíen a través de la plataforma y mantener actualizado el software de seguridad en su dispositivo.

Según analistas, ChatGPT también puede ser utilizado para crear malware. Sin embargo, en este punto, Adib Mansur explica que “No solo con ChatGPT se puede crear malware, sino es algo que existe en la dark web (red profundad) donde se venden todo tipo de herramientas para que los cibercriminales realicen los ataques. Ante ello, no se puede pensar que por usar ChatGPT se va a incrementar este tipo de mercado. El malware y ransomware como servicio ya existen y en un flagelo que crece día tras día”.

En este sentido, Adib Manssur va más allá. “Si bien ChatGPT puede ser usado de manera negativa, no debemos estigmatizar esta herramienta ni las que han surgido como DALL-E 2, Microsoft Bing, Chatsonic y más. Lo positivo es que cada vez hay desarrollos de IA al alcance de los usuarios. Esta es solo una aplicación práctica, pero la IA hace aportes más profundos”.

Justamente en el uso de la IA en ciberseguridad, las técnicas de IA son muy prometedoras en las áreas de análisis, detección y respuesta a las amenazas. Su capacidad para aplicar técnicas avanzadas de análisis y basadas en la lógica puede aliviar en gran medida la carga de los administradores de seguridad y permitirles tomar medidas razonables y eficaces en respuesta a los ataques y amenazas.

El análisis del comportamiento de usuarios y entidades (UEBA), por ejemplo, puede ayudar a detectar a personas internas malintencionadas, así como a atacantes externos hostiles que se infiltran en la red y sus activos.

El análisis del tráfico de la red es otra área en la que la IA puede brillar; el volumen del tráfico de la red suele ser masivo y llevar a cabo un análisis exhaustivo y continuo que sólo con esfuerzos humanos sería no solo difícil, sino imposible.

Las técnicas avanzadas de IA y ML, como el análisis de big data, pueden ayudar a detectar el malware y las amenazas avanzadas con un gran grado de precisión, incluidas las mutaciones y variantes.

De esta manera, IA y la variedad de aplicaciones demuestran que esta tecnología está cambiando muchos procesos y será un aliado para los usuarios. “Lo importante es ser consciente de que siempre debe haber un componente de seguridad para protegernos”, concluye el ejecutivo.