Implicaciones de la IA generativa para la seguridad empresarial

La IA generativa ha cambiado rápidamente lo que el mundo pensaba que era posible con la inteligencia artificial, y su adopción generalizada puede parecer impactante para muchos que no trabajan en tecnología. Inspira asombro e inquietud, y a menudo ambos al mismo tiempo.

Alex Au Yeung, Chief Product Officer, Symantec Enterprise Division se plantea ¿cuáles son sus implicaciones para la empresa y la ciberseguridad, destacando que es un cambio de juego científico y de ingeniería para la empresa. “Una tecnología que puede mejorar en gran medida la eficiencia de las organizaciones, permitiéndoles ser significativamente más productivas con la misma cantidad de recursos humanos. Pero el impacto de la rapidez con la que surgieron aplicaciones de IA generativa como ChatGPT, Bard y GitHub Copilot aparentemente de la noche a la mañana comprensiblemente tomó por sorpresa a los líderes de TI empresariales. Tan rápido que en solo seis meses, la popularización de las herramientas de IA generativa ya está llegando a un punto de inflexión tecnológico”.

La IA generativa opera en redes neuronales impulsadas por sistemas de aprendizaje profundo, al igual que funciona el cerebro. Estos sistemas son como los procesos de aprendizaje humano. Pero, a diferencia del aprendizaje humano, el poder de los datos de fuentes múltiples combinado con la información correcta en la IA generativa significa que el procesamiento de las respuestas será años luz más rápido. Lo que podría tomar 30 años para que un individuo lo procese podría tomar solo un parpadeo. Ese es un beneficio que se puede derivar dependiendo de la calidad, así como de las cantidades masivas de datos que se pueden incorporar.

Los desafíos de la ciberseguridad

La IA generativa, incluido ChatGPT, se entrega principalmente a través de un modelo de software como servicio (SaaS) de terceros. Uno de los desafíos que esto plantea es que interactuar con IA generativa requiere proporcionar datos a este tercero.

Los grandes modelos de aprendizaje (LLM) que respaldan estas herramientas de IA requieren el almacenamiento de esos datos para responder de manera inteligente a las solicitudes posteriores que hagan los usuarios.

“Uno de los desafíos es que el uso de IA presenta problemas importantes en torno a la pérdida de datos confidenciales y el cumplimiento. Proporcionar información confidencial a los programas de IA generativa, como datos de identificación personal, información de salud protegida o propiedad intelectual, debe verse desde la misma perspectiva que otras relaciones con otras aplicaciones y debe incorporar los controles adecuados. No se trata de frenar la innovación sino de hacer un uso responsable de estas herramientas”, comentó Ricardo Dos Santos, Gerente de Servicios y Ciberseguridad en eSoft LATAM, quien hace énfasis en que las soluciones Data Loss Prevention o prevención de pérdida de datos (DLP, por sus siglas en inglés) son un conjunto de herramientas y procesos que utilizan las empresas para garantizar que los datos confidenciales no se pierdan, o se usen de manera indebida, o los usuarios no autorizados accedan a ellos.

Y es que la información alimentada en herramientas de IA como ChatGPT se convierte en parte de su conjunto de conocimientos. Cualquier suscriptor de ChatGPT tiene acceso a ese conjunto de datos común. Esto significa que cualquier dato cargado o sobre el que se haya preguntado se puede reproducir dentro de ciertas medidas de seguridad de la aplicación para otros terceros que hagan preguntas similares. “Tal como está hoy, la mayoría de las herramientas de IA generativa no tienen políticas de seguridad de datos concretas para los datos proporcionados por los usuarios”, advierte el especialista de Symantec – Broadcom.

“La amenaza interna también se vuelve significativa con la IA. Algunos colaboradores de su empresa pueden usar ChatGPT para crear correos electrónicos muy realistas, pero si no hacen la revisión adecuada, pueden duplicar el estilo de otro con errores tipográficos, información imprecisa y más. Además, los atacantes también pueden duplicar sitios web exactamente y eso abre otra brecha de seguridad”.

Lo que las empresas necesitan para la seguridad

Afortunadamente, existen soluciones de protección para la IA generativa, como Symantec DLP Cloud, Adaptive Protection en Symantec Endpoint Security Complete (SESC) y monitoreo en tiempo real de la seguridad del correo electrónico que abordan estos desafíos emergentes y bloquean los ataques de diferentes maneras.

Symantec DLP Cloud amplía Generative AI Protection para empresas con las capacidades que necesitan para descubrir, y posteriormente monitorear y controlar, la interacción con herramientas de IA generativa dentro de sus organizaciones. Entre otros beneficios, DLP puede usar IA para acelerar la priorización de incidentes, ayudando a los analistas sénior a clasificar los más importantes y reconocer aquellos que no son una amenaza crítica para la empresa.

Los beneficios incluyen:

– Proporcionar a las empresas la capacidad de comprender los riesgos a los que están sujetas, por el uso de herramientas con IA generativa.

– Permitir el uso seguro y protegido de las herramientas populares de IA al brindar las medidas de seguridad necesarias para bloquear la carga o publicación de datos confidenciales de manera intencional o inadvertida.

– Identificar, clasificar y documentar el cumplimiento de identificación personal, información de salud, propiedad intelectual y otros datos críticos.

Symantec Generative AI Protection permite a las empresas «decir sí» a las innovaciones que mejoran la productividad de la IA generativa, sin comprometer la seguridad de los datos y el cumplimiento.

Las soluciones y servicios de seguridad de Symantec están disponibles en el país a través de eSoft LATAM, Partner Premier / TIER 1 VAD y el mejor Expert Advantage  Partner & Technical Enablement, Latin America de Broadcom Software.