Por
Thiago Araki, Director Senior de Tecnología para América Latina en Red Hat
La inteligencia
artificial (IA), antes una tendencia prometedora, se ha transformado hoy en una
realidad fascinante. De acuerdo con estudios de McKinsey, la adopción de la tecnología ha aumentado al 72% en
2024. Aplicada en distintos casos de uso personales, en las compañías e incluso
en los gobiernos, la IA, especialmente la IA Generativa (GenAI), debe seguir en
rápido ritmo de crecimiento, llegando a agregar billones de dólares en la
economía global.
Aunque sus
beneficios sean indiscutibles, todavía existen facetas nebulosas. Una encuesta
de Deloitte apuntó que muchas organizaciones creen que podrían
surgir nuevos problemas debido a la ampliación de los proyectos piloto de IA,
las regulaciones poco claras en torno a los datos confidenciales y las dudas
sobre el uso de datos externos (por ejemplo, datos de terceros con licencia).
De las empresas encuestadas, 55% afirmaron evitar ciertos casos de uso de IA
debido a problemas relacionados con los datos, y una proporción igual está
trabajando para mejorar la seguridad de sus datos.
La inseguridad
digital fue un tema relevante en la edición de 2024 del Foro Económico Mundial
que la remarcó como uno de los principales riesgos de la actualidad, detrás de
la desinformación y las fake news, los fenómenos meteorológicos extremos y la
polarización política. Los líderes que fueron entrevistados mencionaron que las
nuevas herramientas y capacidades tecnológicas, como las que proporciona la
inteligencia artificial, deberían obstaculizar el camino hacia el cibercrimen a
lo largo de esta década.
Prevenir sigue siendo mejor que curar
El desarrollo
de la IA conlleva riesgos para las organizaciones si no se implementa de manera
adecuada. Sin embargo, una inteligencia artificial diseñada adecuadamente no
sólo puede prevenir vulnerabilidades, sino que también puede convertirse en una
herramienta altamente efectiva para combatir posibles ataques. Para eso, el
primer paso es tener en cuenta que la adopción de la IA requiere etapas.
Cuando se prioriza la protección sobre la detección, con acciones preventivas, las brechas se vuelven mucho más claras y fáciles de controlar. La principal preocupación de las empresas debería centrarse en la seguridad de las infraestructuras. Una plataforma de IA sólida con componentes establecidos contribuye a la innovación, la eficiencia y, en consecuencia, a un entorno más seguro.
Una de las
estrategias en ese sentido es la adopción del código abierto, que hoy es uno de
los principales impulsores de la inteligencia artificial. El open source ha
sido el motor de la innovación durante décadas y, al combinar la experiencia de
las comunidades de desarrolladores del mundo con el poder de los algoritmos de
IA, descubrimos un potencial extremo para la innovación segura. Las soluciones
de código abierto, basadas en la nube híbrida abierta, brindan a las
organizaciones la flexibilidad de ejecutar sus aplicaciones y sistemas de IA en
cualquier entorno de datos, ya sea en nubes públicas o privadas o en el Edge,
garantizando una mayor seguridad.
Más que segura,
una IA confiable
A la hora de mitigar riesgos se deben contemplar
varios factores. Desde la perspectiva de la transparencia y explicabilidad, los
algoritmos deben ser comprensibles.
Además, es fundamental garantizar que los sistemas de IA no perpetúen
sesgos. Cómo empresa líder en soluciones open source, desde Red Hat promovemos
modelos de desarrollo colaborativo y abierto, donde la comunidad puede auditar
y mejorar los algoritmos., facilitando el control y la mitigación de sesgos en
tiempo real.
Además, estamos comprometidos con la democratización del uso de IA mediante el uso del código abierto y de iniciativas como los Small Language Models, que permiten a más organizaciones aprovechar la IA sin barreras tecnológicas o de costos. Un informe reciente de Databricks mostró que más del 75% de las empresas están eligiendo estos modelos open source más pequeños y personalizados para casos de uso específicos.
Un ejemplo es Red Hat OpenShift AI, que proporciona un entorno flexible para que los científicos, ingenieros y desarrolladores de datos construyan, implementen e integren proyectos de manera más rápida y eficiente. Las plataformas como Red Hat OpenShift AI integran seguridad por diseño, facilitando a las organizaciones en sus formatos de entrenamiento e implementación de modelos de IA con estándares estrictos de protección de datos.
El línea con el futuro
Otra preocupación de las empresas y también de la
sociedad en cuanto al uso de la IA a gran escala está relacionada con la
sostenibilidad. Según Gartner, la IA está
impulsando rápidos aumentos en el consumo de electricidad, por lo que la
consultora predice que el 40% de los centros de datos de IA existentes estarán
limitados operativamente por la disponibilidad de energía para 2027.
Optimizar el consumo energético de las infraestructuras tecnológicas es esencial para reducir la huella de carbono y mitigar los efectos del cambio climático, contribuyendo para el alcance de las metas de la Agenda 2030, de la Organización de las Naciones Unidas (ONU). Así, proyectos como Kepler y Climatik, impulsados por Red Hat, son fundamentales para una innovación sostenible.
La IA y sus complementos, como la GenAI y el Machine Learning, pueden - y en realidad ya lo están haciendo- revolucionar sectores críticos mediante soluciones innovadoras, como diagnósticos médicos automatizados o análisis de riesgos en la justicia. Junto a otras tecnologías como la computación cuántica, el Internet de las Cosas (IoT), Edge Computing, 5G y 6G, esta tecnología será la base para el desarrollo de ciudades inteligentes, para la descubierta de innovaciones sin precedentes y para escribir un nuevo capítulo de la historia. Pero, aunque todas estas soluciones desempeñen un papel crucial, tenemos siempre que acordarnos que son los talentos quienes las desarrollan, implementan y utilizan estratégicamente, para resolver problemas específicos, alineando tecnología y negocio.
Así, la colaboración es la clave para mitigar riesgos y avanzar de forma más segura rumbo a un futuro sostenible construido sobre las bases de la IA. Una colaboración basada en los principios del código abierto fomenta la transparencia, la cultura abierta y el control comunitario e impulsa un desarrollo tecnológico ético, inclusivo y responsable de la inteligencia artificial en el corto y largo plazo.