jueves, 4 de mayo de 2023

DTP/ 516 Qué impacto tendrá la Inteligencia Artificial en el futuro de la seguridad

Charlie Bell, Executive Vice President, Security, Compliance, Identity, and Management de Microsoft. La innovación se ha acelerado rápidamente desde que nos convertimos en una sociedad digitalizada y algunas de las novedades que ha traído consigo han cambiado en esencia el modo en que vivimos: Internet, los smartphones, las redes sociales o el cloud computing. Como hemos visto en los últimos meses, estamos en la cresta de una nueva ola en el panorama tecnológico que cambiará todo: la IA. Como Brad Smith señaló recientemente, la Inteligencia Artificial y el machine learning ya han alcanzado un nivel de desarrollo que se esperaba para dentro de diez años, proporcionando una capacidad revolucionaria para profundizar en conjuntos de datos enormes y encontrar respuestas donde antes sólo teníamos preguntas. Lo vimos hace unas semanas con la importante integración de IA en Bing y Edge. Esta innovación demuestra la capacidad no sólo de “razonar” con agilidad en base a un inmenso conjunto de datos, sino también de proporcionar a la gente la posibilidad de tomar decisiones de una manera nueva y diferente, que podría tener un impacto enorme sobre sus vidas. Imagina el alcance que este tipo de escala y potencia podría tener en la protección de los clientes frente a las ciberamenazas. Mientras vemos cómo se acelera rápidamente el progreso que permite la IA, Microsoft tiene el compromiso de invertir en herramientas e investigación, así como de cooperar con la industria para crear una IA segura, sostenible y responsable para todos. Nuestro acercamiento da la máxima prioridad a escuchar, aprender y mejorar. Parafraseando a Stan Lee, creador de Spiderman, un enorme potencial informático conlleva una enorme responsabilidad para aquellos que están desarrollando y proporcionando seguridad a nuevas soluciones de IA y machine learning. La seguridad es un terreno que experimentará en profundidad el impacto de la IA. La IA cambiará las reglas del juego Desde hace mucho existe la precepción de que los ciberdelincuentes llevan la delantera en agilidad. Los adversarios, con novedosas técnicas de ataque, suelen disfrutan de una cómoda ventaja antes de ser detectados de una forma concluyente. Incluso los que utilizan técnicas clásicas, como convertir en herramientas de ataque las credenciales o servicios de terceros, han disfrutado de agilidad que les proporciona ventajas en un mundo en el que continuamente aparecen nuevas plataformas. Pero esta asimetría se puede corregir: la IA tiene el potencial de inclinar la balanza de la agilidad en favor de los encargados de la defensa. La IA les permite ver, clasificar y contextualizar mucha más información y de forma mucho más rápida de lo que pueden lograr colectivamente grandes equipos de profesionales de la seguridad. La velocidad y las capacidades revolucionarias de la IA proporcionan a los expertos la posibilidad de arrebatar a los atacantes su ventaja en términos de agilidad. Si proporcionamos la información adecuada a nuestra IA, el software que corre con la escala que proporciona la nube nos ayudará a localizar nuestras verdaderas flotas de dispositivos, identificar las suplantaciones extrañas y descubrir, de forma instantánea, qué incidentes de seguridad son evidentes y cuáles son en realidad pasos complejos de un plan más malicioso. Y lo hará más rápido de lo que un ser humano tarda en girar su silla para cambiar de una pantalla a otra. La IA reducirá la barrera de entrada para carreras de ciberseguridad Según un estudio realizado por (ISC)2, la asociación sin ánimo de lucro de profesionales certificados en seguridad más grande del mundo, la fuerza laboral global dedicada a la ciberseguridad cuenta con cerca de 4,7 millones de trabajadores, incluyendo los 464.000 sumados en 2022. Sin embargo, el mismo estudio indica que se necesitarían otros 3,4 millones de trabajadores de ciberseguridad para proteger los activos de forma eficaz. La seguridad siempre necesitará el trabajo conjunto de seres humanos y máquinas, y una automatización con IA más potente nos ayudará a decidir mejor a qué dedicamos el ingenio humano. Cuanto más podamos aprovechar la IA para obtener una visión procesable e interoperable de los riesgos y amenazas cibernéticas, más capacidad proporcionaremos a los profesionales menos experimentados que estén empezando su carrera profesional. De este modo, la IA abre la puerta al talento de nivel básico, al mismo tiempo que libera a los expertos con mayor cualificación para centrarse en retos mayores. Cuanto mayor sea el trabajo de la IA en la primera línea, mayor será el impacto de los expertos de la seguridad y su inestimable conocimiento técnico. Esto también crea una enorme oportunidad y un toque de atención para finalmente contratar científicos de datos, programadores y un sinfín de perfiles que pueden profundizar en la lucha contra el ciberriesgo. La IA responsable debe ser liderada en primer lugar por los seres humanos Hay numerosas visiones distópicas advirtiéndonos de en qué se podría convertir una IA mal utilizada o descontrolada. Como comunidad global, ¿cómo nos aseguramos de que el potencial de la IA se utiliza para el bien y no para el mal, y de que la gente puede confiar en que la IA esté haciendo lo que se supone que debe? Parte de esa responsabilidad recae en los políticos, los gobernantes y los poderes globales. Y otra parte recae en la industria de la seguridad, que ayuda a construir la protección que impida a los malhechores utilizar la IA como herramienta para el ataque. Ningún sistema de IA puede ser efectivo a menos que se base en el conjunto de datos adecuado, continuamente afinado y sujeto a los comentarios y las mejoras de los operadores humanos. Por más que la IA pueda ayudar en la lucha, los humanos somos responsables de su rendimiento, ética y crecimiento. Las disciplinas de ciencia de datos y ciberseguridad tienen mucho que aprender una de otra (e incluso de cualquier campo del conocimiento y la experiencia humanos) cuando exploramos la IA responsable. Microsoft está construyendo una base sólida para el trabajo con la IA En los primeros tiempos de la industria de software, la seguridad no era una parte fundamental del ciclo de vida de desarrollo, y vimos la llegada de gusanos y virus que irrumpieron en el creciente ecosistema de software. Aprendiendo de los errores, hoy la seguridad va implícita en todo lo que hacemos. En los primeros días de la IA, vemos una situación similar. Sabemos que el momento para proteger estos sistemas es ahora, cuando está siendo creados. Con ese objetivo, Microsoft ha invertido en la seguridad de esta nueva frontera. Tenemos un grupo dedicado de profesionales multidisciplinares, que están identificando cómo se puede atacar los sistemas de IA, además de cómo los atacantes pueden utilizar los propios sistemas de IA para lanzar ataques. Recientemente, el Microsoft Security Threat Intelligence Team ha realizado algunos interesantes anuncios que marcan nuevos hitos en este trabajo, incluyendo la evolución de herramientas innovadoras como Microsoft Counterfit, que han sido creadas para ayudar a nuestros equipos de seguridad a pensar en ese tipo de ataques. La IA no será “la herramienta” que resuelva la seguridad en 2023, pero será cada vez más importante que los clientes escojan proveedores de seguridad que puedan ofrecer tanto inteligencia a gran escala frente a amenazas como IA a hiperescala. Combinados, serán los elementos que proporcionen a los clientes una ventaja sobre los atacantes cuando estén defendiendo sus entornos. Debemos trabajar juntos para ganar a los malos Hacer del mundo un lugar más seguro no es algo que un grupo o compañía pueda hacer solo. Para lograr este objetivo, debemos trabajar juntos, tanto industrias como gobiernos. Cada vez que compartimos nuestras experiencias, conocimiento e innovaciones, hacemos a los malos más débiles. Por eso es tan importante que trabajemos hacia un futuro más transparente en ciberseguridad. Es crítico construir una comunidad de seguridad que crea en la apertura, la transparencia y el aprendizaje mutuo. Creo que, de lejos, la tecnología está de nuestro lado. Aunque siempre habrá actores perniciosos que tengan malas intenciones, el grueso de los datos y la actividad que entrena los modelos de IA es positivo y por tanto la IA será positiva. Microsoft cree en un acercamiento proactivo a la seguridad, incluyendo inversiones, innovación y colaboraciones. Trabajando juntos, podemos ayudar a construir un mundo digital más seguro y explotar el potencial de la IA. Fuente: Microsoft https://news.microsoft.com/es-es/2023/03/09/que-impacto-tendra-la-inteligencia-artificial-en-el-futuro-de-la-seguridad/

No hay comentarios:

Publicar un comentario