Skip to main content

¿Qué es la IA responsable en la industria de la seguridad?

El poder transformador de la IA en materia de seguridad depende de su uso ético, y un marco de IA responsable ayuda a garantizar que prioricemos la calidad, la privacidad y la seguridad.

El futuro de la seguridad se encuentra en la intersección de la inteligencia humana y la informática, y nuestra capacidad para aprovechar la IA es un componente fundamental que impulsa la transformación de la industria.

Pero la velocidad de la innovación no es el único obstáculo. Si bien muchas organizaciones ya están experimentando el impacto positivo de la seguridad impulsada por la IA, la industria se enfrenta a una coyuntura importante.

Al igual que con otras innovaciones a lo largo de la historia (como Internet, las redes sociales y el comercio electrónico), los avances tecnológicos a veces pueden superar la gobernanza y la regulación, lo que lleva a un período de ajuste, a medida que las personas, las organizaciones y los responsables de las políticas se ponen al día.

Esa gobernanza es necesaria no para desalentar la innovación, sino para protegerla. La implementación y la adopción generalizada de la IA conllevan ciertos riesgos que, si no se controlan, plantean graves problemas de privacidad y seguridad. Por ejemplo, algunos riesgos incluyen el posible uso indebido por parte de actores amenazantes, dudas sobre la propiedad intelectual y sesgo. Las regulaciones y las directrices ayudan a identificar y mitigar estos riesgos para un uso responsable de la IA.

Sin embargo, las regulaciones de IA aún están en desarrollo y algunas regiones adoptan una postura más proactiva que otras. A principios de este año, por ejemplo, la UE adoptó la primera regulación integral de IA del mundo, la Ley de IA de la UE , pero en otras regiones, como América del Norte y Asia Pacífico, la gobernanza está más fragmentada.

Mientras tanto en Chile y siguiendo los pasos de la UE, está en curso un proyecto de ley para regular el ejercicio de la IA, el cual calibra la necesidad de protección con la de innovación, posibilita la entrada de nuevos actores, promueve los espacios de prueba controlados para sistemas de IA y plantea medidas dirigidas a empresas de menor tamaño en esta materia.

Además, algunas empresas, incluida Securitas, están estableciendo sus propias barreras para garantizar que desarrollan e implementan la IA de manera responsable. El uso responsable de la IA implica tanto cumplir con las leyes y regulaciones aplicables como mantener estándares éticos.

“El poder de la IA conlleva una profunda responsabilidad, en nuestra industria y más allá”, afirma Daniel Sandberg, director de inteligencia artificial del Grupo Securitas. “A medida que aprovechamos estas tecnologías avanzadas para mejorar la seguridad, debemos comprometernos colectivamente a mantener los más altos estándares de práctica ética. Hacerlo también genera una enorme innovación y valor para nuestras comunidades”.

Marco de IA responsable de Securitas

Para garantizar que utilizamos la IA de forma ética y responsable (cumpliendo los más altos estándares de calidad, privacidad y seguridad), Securitas ha establecido un marco de IA responsable. Este marco proporciona gobernanza para la forma en que ejecutamos nuestra estrategia de IA más amplia, al tiempo que mantenemos nuestros valores fundamentales de Integridad, Eficacia y Servicio en el centro de todo lo que hacemos.

Según este marco, la IA responsable se basa en cinco pilares:

  1. Privacidad y transparencia: la confianza, la transparencia y la integridad son importantes para nosotros. Brindamos información clara y precisa sobre nuestras soluciones de inteligencia artificial y respetamos la privacidad.

  2. Igualdad y equidad: Nos aseguramos de que nuestras soluciones de IA sean inclusivas y diversas. Evaluamos el impacto en la sociedad y el medio ambiente.

  3. Calidad de los datos y sesgo: estamos atentos y tomamos medidas para mitigar el sesgo o el daño. Trabajamos activamente para garantizar que los datos utilizados en procesos clave sean de buena calidad.

  4. Seguridad y protección: los sistemas son robustos y seguros para garantizar prácticas de inteligencia artificial responsables para nuestros clientes, empleados y socios. Contribuimos a garantizar una sociedad más segura.

  5. Innovación y valor comercial: combinamos la inteligencia humana y la informática. Aprovechamos el poder de la IA responsable para generar innovación y valor comercial tangible.

“Nuestro marco de IA responsable ayuda a garantizar que nuestros sistemas de IA sean transparentes en sus operaciones, responsables de sus acciones y respetuosos de la privacidad y los derechos individuales”, afirma Daniel. “Nuestro objetivo es fomentar la confianza y la fiabilidad en cada solución de IA que implementamos, contribuyendo de forma positiva a nuestros clientes y comunidades”.

Un futuro basado en una IA responsable

La IA seguirá desempeñando un papel central en la innovación en seguridad en el futuro previsible, pero como industria debemos recordar: no se trata solo de la tecnología, sino de cómo la usamos.

A medida que evolucionan las regulaciones en torno a la IA, se está produciendo un despertar colectivo dentro de la industria. Cada vez es más evidente que el progreso sostenible depende de nuestro uso responsable de la IA, garantizando que la tecnología que se desarrolla y se implementa se haga con un profundo compromiso con los estándares éticos.

De hecho, la IA responsable es la clave para desbloquear un futuro en el que creemos soluciones más inteligentes e intuitivas que no solo piensen, sino que también se preocupen por la privacidad, la equidad y el impacto que tienen en el mundo real.

Navegador no soportado. Favor ingresa a nuestro sitio web con Chrome, Opera, Firefox o Safari.