La
inteligencia artificial (IA) la mayor estrella de esta década en lo que
respecta a tecnología, seguirá aumentando en los próximos años. Proyecciones de
Gartner señalan que, para 2026, más del 80 %
de las empresas habrán utilizado modelos de inteligencia artificial generativa
(Gen AI) o implementado aplicaciones habilitadas para Gen AI en entornos de
producción. Sin embargo, el crecimiento también pone de relieve los desafíos
que enfrentan las organizaciones al lidiar con la IA: más del 30 % de estos proyectos deberán abandonarse
a finales de 2025 debido a la baja calidad de los datos, un control de riesgos
inadecuado, poca percepción de valor y altos costos.
"Vivimos en una panacea de
desarrollo reciente en América Latina con la nube, y ahora vemos que la
historia se repite con la inteligencia artificial. Hay una emoción que, al mismo tiempo,
trae tensión y presión a los CIOs para que produzcan cualquier cosa con esta
tecnología, sin mucho análisis ni estrategia. Y definitivamente este no es el
mejor camino”, afirma Gilson Magalhães, VP y
General Manager de Red Hat para América Latina.
Una receta para cada negocio
La
respuesta a un avance sostenible de la IA radica en la convergencia de esta
inteligencia con las habilidades y los conocimientos humanos. "La inteligencia artificial ya es una
realidad y el siguiente paso es hacer que interactúe satisfactoriamente con la
inteligencia humana. Esto significa contar con herramientas de IA mejor
alineadas para resolver los procesos del día a día, automatizar el trabajo
repetitivo y mejorar las capacidades de los recursos humanos para tareas más
estratégicas", señala el directivo.
Las
herramientas de código abierto son grandes aliadas en este camino. La
estrategia de nube híbrida abierta defendida por Red Hat es la puerta de
entrada a una inteligencia artificial abierta y eficaz, respaldada por
importantes socios como Google, AWS y Microsoft. Una de las plataformas más
famosas de la compañía, Red Hat OpenShift, obtuvo recientemente una versión
específica para IA.
Red Hat OpenShift AI proporciona capacidades confiables y
consistentes para probar, desarrollar y entrenar modelos de IA, lo que permite
la preparación y adquisición de datos, así como el entrenamiento, el ajuste y
la entrega de modelos. La solución se integra con otra novedad de la empresa, el Red Hat® Enterprise Linux® AI, plataforma modelo base
utilizada para desarrollar, probar y ejecutar modelos de lenguajes a gran
escala (LLM) de la familia Granite para aplicaciones empresariales.
SLM:
la nueva era de la IA
Según
las previsiones de forrester, mientras que casi el 90 % de los
tomadores de decisiones tecnológicas globales dicen que sus empresas aumentarán
la inversión en infraestructura, gestión y gobernanza de datos, los líderes
tecnológicos seguirán siendo pragmáticos al invertir en IA para maximizar el
valor comercial derivado de la tecnología. De cara a 2025, la transformación
más significativa de las inversiones se centrará en pequeños modelos de
inteligencia artificial, los llamados SLM (pequeños
modelos de lenguaje, en inglés).
En
la práctica, comprender la sopa de letras de los LLM y SLM es sencillo. Ambas
siglas hacen referencia a tipos de sistemas de inteligencia artificial
entrenados para interpretar el lenguaje humano, incluidos los lenguajes de
programación. Los LLM a menudo pretenden emular la inteligencia humana en un
nivel muy amplio y, por lo tanto, están capacitados en una amplia gama de
grandes conjuntos de datos. Por su parte, los SLM, se entrenan en conjuntos de
datos más pequeños adaptados a dominios industriales específicos (es decir,
áreas de especialización).
Otras tendencias
Para
2025, la automatización y la informática de
punta estarán en la agenda de las organizaciones públicas y privadas con el
avance cada vez más acelerado del Internet de las cosas (IoT). Además, la
computación cuántica podría dar un importante salto: las Naciones Unidas (ONU)
ya han proclamado que el 2025 será el año Internacional de la Ciencia y la
Tecnología Cuántica, esperando que la investigación sobre esta solución salga
de laboratorios y obtenga aplicaciones más prácticas en la vida cotidiana.
"La virtualización también tendrá un espacio de
crecimiento. Las mismas máquinas virtuales que fueron fundamentales para la
evolución de la computación en la nube ahora contribuyen al entrenamiento del
modelo AI/ML, con aislamiento y reproducibilidad, escalabilidad, aceleración de
hardware, flexibilidad en la configuración del software y gestión y seguridad
de los datos", explica Magalhães. Gartner señala que el 70 % de las cargas de
trabajo que alimentan computadoras personales y servidores de centros de datos
seguirán utilizando virtualización basada en hipervisor hasta 2027.
Por
el lado de las telecomunicaciones, la apuesta está en la evolución de las redes
5G y 6G, más rápidas y fiables, que impulsarán las ciudades inteligentes, los
vehículos autónomos y las tecnologías inmersivas. La preocupación por
soluciones más sostenibles también irá en aumento, y las empresas buscarán
reducir su huella de carbono, con innovaciones en tecnología solar,
almacenamiento de baterías y centros de datos sin emisiones de carbono. Las
inversiones en ciberseguridad completan la lista, con soluciones sólidas y
descentralizadas para que las organizaciones se protejan contra ataques
crecientes, filtraciones de datos y ransomware.