Siete principios para el desarrollo responsable de sistemas de IA en Colombia

Desde el conocimiento específico hasta la conciencia sobre el impacto ambiental de la IA, son claves para minimizar riesgos y maximizar los beneficios de esta tecnología.

Colombia continúa avanzando en la adopción responsable de la Inteligencia Artificial. Este año, el país se ha posicionado como el quinto mejor en este proceso de adopción en América Latina, en un momento donde el Gobierno Nacional ha diseñado su hoja de ruta de la Inteligencia Artificial para desarrollar dinámicas en pro de esta tecnología con base en principios éticos y sostenibles.

El panorama es favorable para el país. Según cifras de Fedesoft, el 36,4% de los empresarios del país están incursionando en la IA Generativa, y el 19,4% la han priorizado en su estrategia comercial.

Son medidas que, de acuerdo con los expertos de EPAM Systems Inc., deben implementarse para garantizar que esta tecnología represente beneficios, mas no riesgos, tanto para usuarios directos como para el entorno en general. La IA está teniendo una fuerte incidencia en diferentes ángulos de la sociedad.

Estrategias de desarrollo y despliegue guiadas por principios de responsabilidad, seguridad, equidad y sostenibilidad son algunas de las recomendaciones que indica la multinacional tecnológica con presencia en Colombia.

Siete principios para desarrollar sistemas de IA de manera responsable

1. Diseño centrado en el ser humano: Los sistemas de IA deben priorizar las necesidades y valores humanos. Poner el bienestar de las personas como núcleo de cada decisión, desde la concepción hasta la implementación, asegura que los resultados tanto individuales como sociales sean la medida principal de su efectividad. El monitoreo constante es clave para adaptarse a cambios a lo largo del ciclo de vida de cada solución.

2. Conciencia y contexto: Para que los equipos de desarrollo de IA sean conscientes del impacto que sus decisiones tienen en el contexto donde se despliega la tecnología, es necesario comprender profundamente el problema que se busca resolver y anticipar las consecuencias de las recomendaciones de la IA, considerando siempre los riesgos tanto para los usuarios directos como para el tejido social en su conjunto.

3. Entendimiento de datos, privacidad y seguridad: Un manejo de datos responsable es fundamental. Las empresas deben asegurarse de que quienes trabajen con IA comprendan a fondo la genealogía y el origen de los datos y que las decisiones en diseño e implementación cumplan con las normativas de privacidad y seguridad. La protección de datos debe ser proactiva, previniendo vulnerabilidades y garantizando el respeto a los derechos de privacidad de cada individuo.

4. Equidad y no discriminación: La IA debe diseñarse y desplegarse evitando cualquier tipo de discriminación o sesgo. Para ello, los equipos deben integrar diversas perspectivas multidisciplinarias que ayuden a identificar y mitigar riesgos, promoviendo así la equidad y evitando la perpetuación de desigualdades.

5. Responsabilidad social y ambiental: Es fundamental considerar el impacto social y ambiental de los sistemas de IA. Esto implica un análisis riguroso de sus efectos y la implementación de estrategias de mitigación para minimizar cualquier impacto negativo. Un equipo independiente puede ser útil para evaluar estos efectos y asegurar una operación responsable de la tecnología.

6. Repetibilidad y pruebas: La IA debe ser diseñada y evaluada para garantizar que su comportamiento sea replicable y verificable. Durante el desarrollo, se deben realizar pruebas exhaustivas que incluyan la evaluación de los principios responsables aquí expuestos. Esto facilita la mejora continua y asegura un monitoreo constante ante cualquier cambio en el desempeño.

7. Rendición de cuentas: Cada integrante de los equipos de IA debe asumir responsabilidad compartida por el impacto de sus sistemas en los usuarios y la sociedad. Esto incluye la creación de una cadena de auditoría y la implementación de planes de mitigación para gestionar cualquier riesgo o daño que pueda surgir de la tecnología.

El ser humano, eje del desarrollo y aplicación de la IA

La IA responsable no incluye a las personas en el proceso únicamente como una medida de cumplimiento regulatorio; coloca a los seres humanos en el núcleo del diseño del sistema, porque sus objetivos, resultados, comportamientos y desempeño (incluida su medición) están enfocados en el bienestar humano. Ser responsable en IA implica situar el bienestar de las personas como eje central de cada elección en el diseño, de forma consciente, intencional y sistemática… Todo lo demás es IA oportunista.

Desde el gobierno nacional se ha tomado muy en serio esta nueva realidad, tanto con la hoja de ruta para el desarrollo y aplicación de la Inteligencia Artificial en Colombia, como por proyectos de ley de datos como el propuesto por Mauricio Lizcano, ministro de las TIC, en colaboración con el Ministerio de Ciencia, Tecnología e Innovación, MinCiencias, con el que se busca impulsar la IA guiada por los principios dictados por la Unesco y la Organización para la Cooperación y el Desarrollo Económicos, Ocde.