
Microsoft ha redoblado su apuesta por la inteligencia artificial (IA) con Azure AI Foundry , una plataforma integral presentada en noviembre de 2024 que unifica todas sus herramientas de IA generativa (Pureai)
Se trata de una evolución del antiguo Azure AI Studio, convertida ahora en un “hub” todo-en-uno diseñado para simplificar la creación, despliegue y gestión de aplicaciones de IA a escala empresarial. En esencia, Microsoft AI Foundry busca que desarrollar IA avanzada sea tan sistemático como gestionar cualquier otro recurso de TI, poniendo orden en lo que hasta ahora era un mosaico de servicios dispersos.
¿Qué es Azure AI Foundry y cómo funciona?
Sus componentes centrales incluyen un portal unificado (antes Azure AI Studio), un kit de desarrollo de software (SDK) específico y una biblioteca de modelos y plantillas preconstruidas (redmondmag) ( Pureai)
A través de esta plataforma, los desarrolladores pueden explorar modelos de lenguaje e imagen, tanto propietarios como de código abierto, e integrarlos mediante una API unificada. Foundry ofrece capacidades como búsqueda con RAG (búsqueda aumentada con generación) mejorada, agentes de IA pre-diseñados y herramientas de evaluación continua de los resultados de los modelosLa filosofía de funcionamiento es end-to-end: desde la selección o ajuste de un modelo de IA, pasando por su entrenamiento con datos empresariales, hasta el despliegue en aplicaciones o copilotos personalizados. Todo ello con monitoreo incorporado y métricas de uso para garantizar rendimiento y cumplimiento normativo
“Ahora, los equipos de desarrollo, operaciones y cumplimiento pueden crear, gestionar y auditar fácilmente sus hubs, proyectos y recursos de IA desde el portal de Azure AI Foundry, sin tener que saltar entre múltiples servicios”, resumió Microsoft durante su lanzamiento.
En otras palabras, Foundry centraliza la gobernanza: un solo panel de control para orquestar modelos, datos y seguridad, reduciendo la complejidad que suponía antes usar Azure OpenAI por un lado, Azure Machine Learning por otro, etc. La plataforma también integra de forma nativa servicios cruciales como Azure AI Content Safety y controles de privacidad para datos sensibles. De hecho, en sucesivas actualizaciones Microsoft ha enfatizado las funciones de gobernanza y seguridad: un Management Center para administrar accesos y recursos de IA de manera centralizada, nuevos roles de administrador con privilegios mínimos y opciones para mantener los datos siempre en la nube privada del cliente (techcommunity microsoft)Impacto global y eco en el mercado español
En el último año, la adopción de estas tecnologías por parte de las empresas se ha disparado a nivel mundial: un estudio de IDC señala que un 75% de las compañías ya habían incorporado IA generativa de algún modo en 2024
Microsoft ha capitalizado esta ola integrando IA (especialmente a través de sus Copilots) en su ecosistema: hoy casi el 70% de las empresas Fortune 500 usan Microsoft 365 Copilot como asistente de productividad. Esta tendencia ilustra cómo las grandes corporaciones están abrazando la IA a un ritmo vertiginoso, motivadas por ganancias de eficiencia: según IDC, por cada dólar invertido en IA generativa se están logrando retornos promedio de 3,7 dólares, con casos líderes que alcanzan hasta 10 dólares de retorno. (Microsoft)
En España, el impacto de esta ola de IA también se deja sentir, aunque con matices. Por un lado, la sociedad española ha adoptado masivamente herramientas de IA generativa en el último año. Un 45% de los españoles afirma haber usado IA generativa en 2024 (frente al 35% en 2023), principalmente para apoyar su trabajo, estudios o proyectos personales. El uso cotidiano de chatbots como ChatGPT o asistentes en español ha crecido rápidamente, hasta el punto de que por primera vez el entusiasmo por el potencial de la IA (51% de los encuestados) supera a las preocupaciones sobre sus riesgos (49%). También aumenta el optimismo económico: un 54% de los españoles cree que la IA tendrá un impacto positivo en el empleo y las industrias en los próximos cinco años, cuando hace un año esa confianza era del.En el tejido empresarial español el avance es igualmente notable, aunque con desigualdades según tamaño de empresa. Un informe de Experis señalaba en noviembre de 2024 que el 50% de las empresas españolas ya había adoptado alguna forma de IA en su operativa, y otro 20% adicional planeaba hacerlo en el próximo año. La IA conversacional generativa es la tecnología que más tracción ha ganado, pero otros campos como la automatización inteligente o el análisis de datos con IA también muestran porcentajes sólidos (46% de empresas implementando estas herramientas). Estos datos sugieren que la gran empresa española está acelerando su transformación con IA, impulsada por la necesidad de competitividad y eficiencia. (La Razón)
Sin embargo, existe una brecha importante con las pymes. Según un estudio encargado por Google, apenas el 9% de las empresas españolas en general había utilizado IA al menos una vez para 2023, porcentaje lastrado por la baja adopción en pequeñas y medianas empresas (solo un 8% de las pymes utilizó IA en ese año) (El Pais).
Es decir, mientras los grandes actores van incorporando IA (muchas veces de la mano de proveedores globales), una parte significativa del tejido empresarial menor aún no ha dado el salto más allá de pruebas piloto. De hecho, otro análisis apuntaba que solo alrededor del 20% de las empresas españolas han pasado de proyectos piloto de IA a implementaciones reales en producción, por debajo de la media europea (32%) en ese aspecto (Microsoft).
España muestra así un desequilibrio: a la vanguardia en algunos casos de uso con incluso un ligero liderazgo respecto a la media global en despliegue de IA, según Experis ( La Razón) pero con un largo “tren” de pymes rezagadas que, de no incorporarse, pueden perder competitividad.
El potencial económico en juego es enorme. Un informe reciente estima que la IA generativa podría aportar entre 100.000 y 120.000 millones de euros a la economía española en la próxima década (hasta un 8% del PIB) si se impulsa decididamente su adopción. Pero advierte: una adopción lenta y parcial podría reducir ese impacto a apenas un 2% del PIB (El Pais)
En otras palabras, España se juega una porción importante de crecimiento futuro en cómo gestione esta revolución tecnológica. No es casualidad que el Gobierno haya lanzado iniciativas como la estrategia HispanIA 2040 o programas de ayudas para IA, conscientes de que es preciso cerrar la brecha de adopción.
La creación de la Agencia Española de Supervisión de la IA (AESIA) y el impulso de proyectos como ALIA también forman parte de esta respuesta estratégica. ALIA, en particular, se presenta como una “infraestructura pública de recursos de IA” con modelos en castellano y lenguas cooficiales, buscando reforzar la soberanía tecnológica de España y la UE con una IA transparente y alineada a nuestros idiomas (Lenguaje claro).
Esto refleja que, junto al empuje de las Big Tech como Microsoft, España quiere desarrollar sus propias capacidades para no quedar rezagada ni dependiente en este ámbito crítico.
Google, OpenAI y otras iniciativas similares: ¿cooperación o competencia?
La jugada de Microsoft con AI Foundry se enmarca en una competencia feroz entre gigantes tecnológicos por dominar la nueva generación de herramientas de IA. Google ha seguido una estrategia paralela: integrar IA generativa en todos sus productos y ofrecerla como servicio en su nube. En 2023 lanzó su modelo PaLM 2 y posteriormente Gemini, su potente IA generativa multipropósito, a la vez que desplegó funcionalidades de asistente en Google Workspace y herramientas para desarrolladores a través de Vertex AI, su plataforma en Google Cloud.
De hecho, Google ha estado también simplificando su oferta bajo marcas más claras –por ejemplo, unificó varios de sus productos de IA bajo la denominación Gemini para dar coherencia a su ecosistema (Ciodive), un movimiento similar al de Microsoft al rebautizar Azure AI Studio como Foundry. Ambos buscan transmitir a los clientes empresariales que ofrecen plataformas unificadas en las que construir sus soluciones de IA a medida, con el respaldo de sus nubes globales.
Por su parte, OpenAI –el socio clave de Microsoft y catalizador inicial de esta revolución con ChatGPT– también está reforzando sus ofertas para empresas. Tras el boom de ChatGPT, OpenAI lanzó en 2023 ChatGPT Enterprise y ChatGPT Teams, versiones orientadas a organizaciones con mayores garantías de privacidad y rendimiento. La acogida ha sido notable: OpenAI superó el millón de usuarios corporativos de pago en sus servicios empresariales a finales de 2024 (Siliconangle), duplicando la cifra que tenía apenas medio año antes.
Esto indica que, pese a la entrada de competidores, OpenAI sigue siendo un referente para muchas empresas que consumen sus modelos (GPT-4, DALL-E 3, etc.) vía API o plataformas asociadas. Consciente de la demanda de soluciones dedicadas, OpenAI incluso puso en marcha un programa llamado Foundry: una oferta de capacidad dedicada en la nube para ejecutar modelos de OpenAI a gran escala
OpenAI Foundry, anunciada discretamente a inicios de 2023, permite a clientes “premium” reservar instancias exclusivas de sus modelos, ganando así en control de rendimiento y personalización. Es una respuesta a clientes con cargas intensivas que requieren fiabilidad constante, y se alinea con la tendencia de ofrecer instancias privadas de modelos en vez de solo acceso compartido.
Ahora bien, a medida que la IA generativa madura, tener el mejor modelo ya no es suficiente para liderar el mercado. Como señala Rowan Curran, analista senior de Forrester, “un modelo de IA no es un modelo de negocio” (Ciodive) Es decir, las empresas usuarias valoran cada vez más las aplicaciones prácticas, la integración con sus datos y procesos, y las garantías de seguridad, por encima de la mera novedad de la IA. En este sentido, Microsoft y Google compiten por convencer a los clientes de que sus ecosistemas son los más seguros, completos y eficientes para llevar la IA del laboratorio a la producción.
Microsoft ha jugado la carta de una alianza estrecha con OpenAI para disponer de los modelos más avanzados en Azure (GPT-4, DALL-E) antes que nadie, pero a la vez –como analizaremos luego– ya mira más allá para no depender exclusivamente de OpenAI. Google, tras verse sorprendido por el adelantamiento de ChatGPT, acelera para no perder su posición. Mientras tanto, Amazon también pugna en esta arena con su servicio Bedrock (ofreciendo modelos de terceros en AWS) y la liberación de modelos open source a través de Hugging Face. Y no olvidemos la miríada de startups y proyectos de código abierto (Stability AI con Stable Diffusion, modelos como LLaMA 2 de Meta, etc.) que aportan alternativas cada vez más potentes sin pasar por los gigantes tradicionales.
Para las empresas usuarias, esta diversidad puede ser abrumadora pero también ventajosa. De ahí la importancia de plataformas como Azure AI Foundry: Microsoft promete en Foundry “integrar múltiples servicios y modelos de diversos proveedores” (Microsoft) , permitiendo orquestar no solo sus modelos sino también otros externos.
Un ejemplo es la incorporación del modelo de imagen Stable Diffusion 3.5 en Azure AI Foundry (Stability) o la posibilidad de conectar modelos abiertos. En teoría, un desarrollador en Foundry podría combinar un GPT-4 de OpenAI para lenguaje con un modelo visionario open source para imágenes, todo gobernado bajo las mismas herramientas. Esta apertura será clave para competir con la neutralidad de la nube de AWS o la flexibilidad de Google Vertex AI, que igualmente se anuncia compatible con distintos modelos. Estamos viendo cómo las grandes plataformas de IA convergen en ofrecer “lo mejor de ambos mundos”: acceso a los modelos punteros propietarios, pero también soporte a modelos open source que el cliente puede preferir por costo, privacidad o afinidad a un dominio específico.
Oportunidades y desafíos para las empresas españolas
Muchas compañías que ya son usuarias de la nube de Microsoft podrán integrar Foundry en sus entornos con relativa facilidad. Por ejemplo, una empresa que use Azure para sus bases de datos o aplicaciones puede ahora añadir capacidades de IA generativa sin salir del ecosistema, aprovechando la integración nativa con servicios como SharePoint, Power Platform o Microsoft 365.
Esto reduce barreras de entrada: se trata de “llevar la IA allí donde están tus datos y tus usuarios”, en lugar de tener que montar proyectos aislados en otros entornos. Además, Foundry promete mantener los estándares de seguridad corporativa: con funcionalidades como bring your own storage (usar tu propio almacenamiento para los datos de entrenamiento) y redes privadas, se busca garantizar que los datos sensibles de la empresa no salgan de sus dominios seguros
La promesa de Foundry es facilitar estos escenarios con mínimos ajustes de código, en parte gracias a la biblioteca de modelos pre-entrenados que ofrece. Y ahí hay otro aspecto interesante: Foundry ofrece un catálogo de modelos de IA básicos y específicos que incluyen desde los conocidos GPT de OpenAI, hasta modelos entrenados para sectores concretos. Microsoft ha ido incorporando, por ejemplo, modelos de visión por ordenador para retail, o modelos de lenguaje especializados en finanzas. Para una empresa española, esto significa acceso a un abanico de algoritmos “listos para usar” que de otro modo quizá no podría desarrollar por sí misma.
Además, Microsoft ha lanzado una iniciativa complementaria llamada Azure AI Foundry Labs, anunciada en febrero de 2025, que puede ser especialmente interesante para universidades, startups y centros de investigación en España. Foundry Labs es un entorno donde desarrolladores y empresas pueden probar las últimas innovaciones de Microsoft Research antes de que lleguen al mercado (Microsoft)
La participación en Foundry Labs permite a empresas españolas curiosear y cocrear con tecnología puntera, aportando feedback y, potencialmente, adoptando antes que la competencia soluciones diferenciadoras. Esta iniciativa refleja un espíritu de colaboración abierta: Microsoft no solo vende herramientas acabadas, sino que invita a la comunidad a explorar prototipos y contribuir a su maduración. Para el ecosistema español –que cuenta con hubs de IA en crecimiento, desde Barcelona a Madrid, pasando por Bilbao, Valencia, etc.–, sumarse a este tipo de laboratorios internacionales puede suponer acceso anticipado a avances importantes. En un país donde el talento en IA existe pero a veces falta conexión con los grandes focos de innovación, Foundry Labs brinda una vía para estar en la conversación global de la IA de vanguardia.
Adoptar plataformas como Azure AI Foundry implica confiar buena parte de la estrategia de IA a un proveedor externo. Algunas voces advierten del riesgo de dependencia excesiva: Enrique Dans señalaba recientemente que el “coche” de Microsoft en IA siempre ha llevado “ruedas de OpenAI” (Enrique Dans) aludiendo a cómo Microsoft se apoyó en esa startup para ganar terreno rápidamente. Ahora Microsoft busca reducir su propia dependencia desarrollando sus modelos; de igual modo, una empresa usuaria debe vigilar no quedar cautiva de una sola tecnología.
Las pymes españolas, en particular, deben evaluar si subirse al tren de Foundry les compensa en términos de coste y de flexibilidad futura. ¿Qué ocurre si dentro de dos años aparece un modelo open source equivalente mucho más barato? ¿Podrán migrar fácilmente fuera del ecosistema Microsoft? Estas preguntas forman parte del análisis estratégico que cada compañía tiene que hacer.
Otro reto es el talento y formación. Tener la herramienta disponible es solo el primer paso; luego se necesita personal que sepa sacarle partido. Aunque Foundry simplifica mucho, sigue requiriendo conocimientos en diseño de prompts, comprensión de modelos, etc.
Existe el riesgo de que, sin la capacitación adecuada, las empresas implementen mal estas IA. De ahí que iniciativas de formación sean cruciales. No por casualidad, empresas como Microsoft y Google están ofreciendo cursos y certificaciones en IA generativa. De hecho, Google ha estimado que para aprovechar el potencial de la IA en España hará falta un fuerte impulso en formación digital, dado que el país arrastra carencias en competencias digitales avanzadas
Voces expertas: una mirada crítica al futuro de la IA empresarial
El estilo “todo en uno” de Microsoft AI Foundry ha sido recibido con interés por la industria, pero también con cierta prudencia. (Enrique Dans), cuya trayectoria analizando tendencias tecnológicas le da una perspectiva de largo plazo, opina que el movimiento de Microsoft responde en parte a la necesidad de remediar su dependencia de OpenAI. Microsoft ha invertido más de 13.000 millones de dólares en OpenAI en los últimos años y ha obtenido enormes ventajas de esa alianza, pero “se ha puesto a trabajar para reducir la dependencia que tiene de OpenAI, desarrollando sus propios modelos para sustituir a ChatGPT en Copilot”. Dans subraya que Microsoft ya está entrenando modelos propios más pequeños y personalizando modelos abiertos, con el objetivo de abaratar costes y controlar su destino.
Esto es revelador: incluso el aliado más cercano de OpenAI busca diversificarse. La lección para otras empresas es similar. A corto plazo, usar la mejor IA disponible te da una ventaja; a largo plazo, quizás quieras tener tus “ruedas” propias. En el caso de Microsoft, Foundry podría ser también una plataforma para, el día de mañana, desplegar sus modelos propios en lugar de los de OpenAI si estos les resultan más eficientes. Para las empresas usuarias, podría implicar que en un futuro sus copilotos de Office funcionen con un modelo de Microsoft en vez de GPT-4, tal vez con menos espectacularidad pero más barato. La comoditización de la que hablábamos: si todos los grandes acaban teniendo sus versiones de modelos potentes, la batalla se traslada al terreno del costo y la conveniencia.
Otro punto que Dans destaca es la estrategia que muchas compañías seguirán: “lanzar prompts a RAGs corporativos… pero ir probando esos prompts en otros modelos más económicos, posiblemente de código abierto”
Es decir, aprovechar la infraestructura para usar GPT-4 en lo crítico, pero quizá para preguntas más triviales o tareas internas rutinarias, cambiar a modelos open source montados en servidores propios, que salen casi gratis. Optimización de costes por vía híbrida. Esto ya ocurre en algunas empresas tecnológicas avanzadas: combinan servicios como Azure OpenAI con modelos locales como LLaMA 2 para distintos niveles de servicio. Foundry en teoría facilita ese enfoque al soportar varios modelos bajo un mismo flujo. La pregunta, se plantea Dans, es si veremos pronto una “comoditización de los algoritmos de IA generativa” similar a lo que pasó con otras tecnologías disruptivas.