Ir directamente al contenido

Tecnología para abogados, asesorías y gestorías

Microsoft AI Foundry: la nueva apuesta unificada de Microsoft en la carrera de la IA generativa

11 mar., 2025 50
Microsoft AI Foundry: la nueva apuesta unificada de Microsoft en la carrera de la IA generativa

Microsoft ha redoblado su apuesta por la inteligencia artificial (IA) con Azure AI Foundry , una plataforma integral presentada en noviembre de 2024 que unifica todas sus herramientas de IA generativa​ (Pureai)

Se trata de una evolución del antiguo Azure AI Studio, convertida ahora en un “hub” todo-en-uno diseñado para simplificar la creación, despliegue y gestión de aplicaciones de IA a escala empresarial. En esencia, Microsoft AI Foundry busca que desarrollar IA avanzada sea tan sistemático como gestionar cualquier otro recurso de TI, poniendo orden en lo que hasta ahora era un mosaico de servicios dispersos.

¿Qué es Azure AI Foundry y cómo funciona?

Sus componentes centrales incluyen un portal unificado (antes Azure AI Studio), un kit de desarrollo de software (SDK) específico y una biblioteca de modelos y plantillas preconstruidas​ (redmondmag) ( Pureai)

A través de esta plataforma, los desarrolladores pueden explorar modelos de lenguaje e imagen, tanto propietarios como de código abierto, e integrarlos mediante una API unificada. Foundry ofrece capacidades como búsqueda con RAG (búsqueda aumentada con generación) mejorada, agentes de IA pre-diseñados y herramientas de evaluación continua de los resultados de los modelos​La filosofía de funcionamiento es end-to-end: desde la selección o ajuste de un modelo de IA, pasando por su entrenamiento con datos empresariales, hasta el despliegue en aplicaciones o copilotos personalizados. Todo ello con monitoreo incorporado y métricas de uso para garantizar rendimiento y cumplimiento normativo​

“Ahora, los equipos de desarrollo, operaciones y cumplimiento pueden crear, gestionar y auditar fácilmente sus hubs, proyectos y recursos de IA desde el portal de Azure AI Foundry, sin tener que saltar entre múltiples servicios”, resumió Microsoft durante su lanzamiento​.

En otras palabras, Foundry centraliza la gobernanza: un solo panel de control para orquestar modelos, datos y seguridad, reduciendo la complejidad que suponía antes usar Azure OpenAI por un lado, Azure Machine Learning por otro, etc. La plataforma también integra de forma nativa servicios cruciales como Azure AI Content Safety y controles de privacidad para datos sensibles​. De hecho, en sucesivas actualizaciones Microsoft ha enfatizado las funciones de gobernanza y seguridad: un Management Center para administrar accesos y recursos de IA de manera centralizada, nuevos roles de administrador con privilegios mínimos y opciones para mantener los datos siempre en la nube privada del cliente​ (techcommunity microsoft)
 
Todo ello muestra que Foundry no solo busca acelerar el desarrollo de IA, sino hacerlo “enterprise-ready”, atendiendo a las preocupaciones de confidencialidad y cumplimiento normativo que son clave especialmente en Europa.

 

Impacto global y eco en el mercado español

En el último año, la adopción de estas tecnologías por parte de las empresas se ha disparado a nivel mundial: un estudio de IDC señala que un 75% de las compañías ya habían incorporado IA generativa de algún modo en 2024​

Microsoft ha capitalizado esta ola integrando IA (especialmente a través de sus Copilots) en su ecosistema: hoy casi el 70% de las empresas Fortune 500 usan Microsoft 365 Copilot como asistente de productividad​. Esta tendencia ilustra cómo las grandes corporaciones están abrazando la IA a un ritmo vertiginoso, motivadas por ganancias de eficiencia: según IDC, por cada dólar invertido en IA generativa se están logrando retornos promedio de 3,7 dólares, con casos líderes que alcanzan hasta 10 dólares de retorno.  (Microsoft)

En España, el impacto de esta ola de IA también se deja sentir, aunque con matices. Por un lado, la sociedad española ha adoptado masivamente herramientas de IA generativa en el último año. Un 45% de los españoles afirma haber usado IA generativa en 2024 (frente al 35% en 2023), principalmente para apoyar su trabajo, estudios o proyectos personales. ​El uso cotidiano de chatbots como ChatGPT o asistentes en español ha crecido rápidamente, hasta el punto de que por primera vez el entusiasmo por el potencial de la IA (51% de los encuestados) supera a las preocupaciones sobre sus riesgos (49%)​. También aumenta el optimismo económico: un 54% de los españoles cree que la IA tendrá un impacto positivo en el empleo y las industrias en los próximos cinco años, cuando hace un año esa confianza era del.
 
Estas cifras, procedentes de encuestas globales de Ipsos/Google, evidencian un cambio de clima: la IA se ha normalizado en la conversación pública y profesional. (infobae)

En el tejido empresarial español el avance es igualmente notable, aunque con desigualdades según tamaño de empresa. Un informe de Experis señalaba en noviembre de 2024 que el 50% de las empresas españolas ya había adoptado alguna forma de IA en su operativa, y otro 20% adicional planeaba hacerlo en el próximo año​. La IA conversacional generativa es la tecnología que más tracción ha ganado, pero otros campos como la automatización inteligente o el análisis de datos con IA también muestran porcentajes sólidos (46% de empresas implementando estas herramientas)​. Estos datos sugieren que la gran empresa española está acelerando su transformación con IA, impulsada por la necesidad de competitividad y eficiencia. (La Razón)

Sin embargo, existe una brecha importante con las pymes. Según un estudio encargado por Google, apenas el 9% de las empresas españolas en general había utilizado IA al menos una vez para 2023, porcentaje lastrado por la baja adopción en pequeñas y medianas empresas (solo un 8% de las pymes utilizó IA en ese año)​ (El Pais).

Es decir, mientras los grandes actores van incorporando IA (muchas veces de la mano de proveedores globales), una parte significativa del tejido empresarial menor aún no ha dado el salto más allá de pruebas piloto. De hecho, otro análisis apuntaba que solo alrededor del 20% de las empresas españolas han pasado de proyectos piloto de IA a implementaciones reales en producción, por debajo de la media europea (32%) en ese aspecto ​(Microsoft).

España muestra así un desequilibrio: a la vanguardia en algunos casos de uso con incluso un ligero liderazgo respecto a la media global en despliegue de IA, según Experis​ ( La Razón) pero con un largo “tren” de pymes rezagadas que, de no incorporarse, pueden perder competitividad.

El potencial económico en juego es enorme. Un informe reciente estima que la IA generativa podría aportar entre 100.000 y 120.000 millones de euros a la economía española en la próxima década (hasta un 8% del PIB) si se impulsa decididamente su adopción. Pero advierte: una adopción lenta y parcial podría reducir ese impacto a apenas un 2% del PIB​ (El Pais)

En otras palabras, España se juega una porción importante de crecimiento futuro en cómo gestione esta revolución tecnológica. No es casualidad que el Gobierno haya lanzado iniciativas como la estrategia HispanIA 2040 o programas de ayudas para IA, conscientes de que es preciso cerrar la brecha de adopción.

La creación de la Agencia Española de Supervisión de la IA (AESIA) y el impulso de proyectos como ALIA también forman parte de esta respuesta estratégica. ALIA, en particular, se presenta como una “infraestructura pública de recursos de IA” con modelos en castellano y lenguas cooficiales, buscando reforzar la soberanía tecnológica de España y la UE con una IA transparente y alineada a nuestros idiomas​ (Lenguaje claro).

Esto refleja que, junto al empuje de las Big Tech como Microsoft, España quiere desarrollar sus propias capacidades para no quedar rezagada ni dependiente en este ámbito crítico.

Google, OpenAI y otras iniciativas similares: ¿cooperación o competencia?

La jugada de Microsoft con AI Foundry se enmarca en una competencia feroz entre gigantes tecnológicos por dominar la nueva generación de herramientas de IA. Google ha seguido una estrategia paralela: integrar IA generativa en todos sus productos y ofrecerla como servicio en su nube. En 2023 lanzó su modelo PaLM 2 y posteriormente Gemini, su potente IA generativa multipropósito, a la vez que desplegó funcionalidades de asistente en Google Workspace y herramientas para desarrolladores a través de Vertex AI, su plataforma en Google Cloud.

De hecho, Google ha estado también simplificando su oferta bajo marcas más claras –por ejemplo, unificó varios de sus productos de IA bajo la denominación Gemini para dar coherencia a su ecosistema​ (Ciodive), un movimiento similar al de Microsoft al rebautizar Azure AI Studio como Foundry. Ambos buscan transmitir a los clientes empresariales que ofrecen plataformas unificadas en las que construir sus soluciones de IA a medida, con el respaldo de sus nubes globales.

Por su parte, OpenAI –el socio clave de Microsoft y catalizador inicial de esta revolución con ChatGPT– también está reforzando sus ofertas para empresas. Tras el boom de ChatGPT, OpenAI lanzó en 2023 ChatGPT Enterprise y ChatGPT Teams, versiones orientadas a organizaciones con mayores garantías de privacidad y rendimiento. La acogida ha sido notable: OpenAI superó el millón de usuarios corporativos de pago en sus servicios empresariales a finales de 2024​ (Siliconangle), duplicando la cifra que tenía apenas medio año antes.

Esto indica que, pese a la entrada de competidores, OpenAI sigue siendo un referente para muchas empresas que consumen sus modelos (GPT-4, DALL-E 3, etc.) vía API o plataformas asociadas. Consciente de la demanda de soluciones dedicadas, OpenAI incluso puso en marcha un programa llamado Foundry: una oferta de capacidad dedicada en la nube para ejecutar modelos de OpenAI a gran escala

OpenAI Foundry, anunciada discretamente a inicios de 2023, permite a clientes “premium” reservar instancias exclusivas de sus modelos, ganando así en control de rendimiento y personalización. Es una respuesta a clientes con cargas intensivas que requieren fiabilidad constante, y se alinea con la tendencia de ofrecer instancias privadas de modelos en vez de solo acceso compartido.

Ahora bien, a medida que la IA generativa madura, tener el mejor modelo ya no es suficiente para liderar el mercado. Como señala Rowan Curran, analista senior de Forrester, “un modelo de IA no es un modelo de negocio(Ciodive) Es decir, las empresas usuarias valoran cada vez más las aplicaciones prácticas, la integración con sus datos y procesos, y las garantías de seguridad, por encima de la mera novedad de la IA. En este sentido, Microsoft y Google compiten por convencer a los clientes de que sus ecosistemas son los más seguros, completos y eficientes para llevar la IA del laboratorio a la producción.

 

Microsoft ha jugado la carta de una alianza estrecha con OpenAI para disponer de los modelos más avanzados en Azure (GPT-4, DALL-E) antes que nadie, pero a la vez –como analizaremos luego– ya mira más allá para no depender exclusivamente de OpenAI. Google, tras verse sorprendido por el adelantamiento de ChatGPT, acelera para no perder su posición. Mientras tanto, Amazon también pugna en esta arena con su servicio Bedrock (ofreciendo modelos de terceros en AWS) y la liberación de modelos open source a través de Hugging Face. Y no olvidemos la miríada de startups y proyectos de código abierto (Stability AI con Stable Diffusion, modelos como LLaMA 2 de Meta, etc.) que aportan alternativas cada vez más potentes sin pasar por los gigantes tradicionales.

Para las empresas usuarias, esta diversidad puede ser abrumadora pero también ventajosa. De ahí la importancia de plataformas como Azure AI Foundry: Microsoft promete en Foundry “integrar múltiples servicios y modelos de diversos proveedores” (Microsoft) ,  permitiendo orquestar no solo sus modelos sino también otros externos.

Un ejemplo es la incorporación del modelo de imagen Stable Diffusion 3.5 en Azure AI Foundry​ (Stability)  o la posibilidad de conectar modelos abiertos. En teoría, un desarrollador en Foundry podría combinar un GPT-4 de OpenAI para lenguaje con un modelo visionario open source para imágenes, todo gobernado bajo las mismas herramientas. Esta apertura será clave para competir con la neutralidad de la nube de AWS o la flexibilidad de Google Vertex AI, que igualmente se anuncia compatible con distintos modelos. Estamos viendo cómo las grandes plataformas de IA convergen en ofrecer “lo mejor de ambos mundos”: acceso a los modelos punteros propietarios, pero también soporte a modelos open source que el cliente puede preferir por costo, privacidad o afinidad a un dominio específico.

En suma, la iniciativa de Microsoft AI Foundry debe entenderse como parte de una batalla estratégica mayor. Microsoft, Google, OpenAI y otros no solo compiten por vender su tecnología, sino por establecer el estándar de cómo se desarrolla IA en el entorno empresarial. Y en ese juego, ofrecer un framework unificado (sea Foundry, Vertex AI, etc.) que facilite a las empresas crear soluciones personalizadas de IA a su medida es tan importante como los propios algoritmos. La comoditización de la IA generativa asoma en el horizonte: Enrique Dans, profesor y analista de referencia, plantea que podríamos estar avanzando hacia una “comoditización” de estos algoritmos, donde tener acceso a modelos potentes sea algo común y el valor diferencial se traslade a qué haces con ellos (Enrique Dans)
 
Si eso ocurre, la verdadera competencia será por las herramientas y ecosistemas  más que por el modelo en sí. No es muy distinto a lo que pasó con Internet: al final, todos teníamos acceso, y lo que importaba era la experiencia y servicios por encima de la mera conectividad.​
 

Oportunidades y desafíos para las empresas españolas

Muchas compañías que ya son usuarias de la nube de Microsoft podrán integrar Foundry en sus entornos con relativa facilidad. Por ejemplo, una empresa que use Azure para sus bases de datos o aplicaciones puede ahora añadir capacidades de IA generativa sin salir del ecosistema, aprovechando la integración nativa con servicios como SharePoint, Power Platform o Microsoft 365.

Esto reduce barreras de entrada: se trata de “llevar la IA allí donde están tus datos y tus usuarios”, en lugar de tener que montar proyectos aislados en otros entornos. Además, Foundry promete mantener los estándares de seguridad corporativa: con funcionalidades como bring your own storage (usar tu propio almacenamiento para los datos de entrenamiento) y redes privadas, se busca garantizar que los datos sensibles de la empresa no salgan de sus dominios seguros​

 
En el contexto europeo –y español–, donde la protección de datos y el cumplimiento del RGPD son cruciales, poder desplegar IA con la seguridad de que los contenidos generados no entren en un modelo público ni se re-utilicen externamente es fundamental. Microsoft ya indicaba que muchos clientes optan por Copilot y sus servicios porque aseguran que los datos introducidos no se usan para entrenar modelos globales y permanecen en centros de datos de la UE​.
 
Con Foundry, esa promesa se extiende: las empresas españolas pueden utilizar modelos avanzados (incluso GPT-4) dentro de Azure, con sus datos alojados en la región cloud de España o en otras regiones europeas, cumpliendo así requisitos de soberanía del dato.
 
Otra ventaja es la eficiencia en el ciclo de desarrollo. Foundry viene con herramientas de DevOps específicas para IA –a veces llamado GenAIOps– que automatizan etapas como pruebas, monitorización de sesgos o iteración de prompts. Para las empresas españolas, que muchas veces no cuentan con amplios equipos de científicos de datos, este tipo de ayudas son valiosas. Por ejemplo, Foundry permite evaluar continuamente la calidad de las respuestas de un modelo en producción y ajustar rápidamente si algo va mal.
 
Un punto clave es que Foundry no requiere empezar desde cero. Microsoft lanzó la plataforma con 25 plantillas de aplicaciones preconstruidas que abarcan casos de uso comunes: desde chatbots para atención al cliente, hasta análisis de documentos, generación de contenido de marketing, o agentes para soporte interno.

La promesa de Foundry es facilitar estos escenarios con mínimos ajustes de código, en parte gracias a la biblioteca de modelos pre-entrenados que ofrece. Y ahí hay otro aspecto interesante: Foundry ofrece un catálogo de modelos de IA básicos y específicos que incluyen desde los conocidos GPT de OpenAI, hasta modelos entrenados para sectores concretos. Microsoft ha ido incorporando, por ejemplo, modelos de visión por ordenador para retail, o modelos de lenguaje especializados en finanzas. Para una empresa española, esto significa acceso a un abanico de algoritmos “listos para usar” que de otro modo quizá no podría desarrollar por sí misma.

Además, Microsoft ha lanzado una iniciativa complementaria llamada Azure AI Foundry Labs, anunciada en febrero de 2025, que puede ser especialmente interesante para universidades, startups y centros de investigación en España. Foundry Labs es un entorno donde desarrolladores y empresas pueden probar las últimas innovaciones de Microsoft Research antes de que lleguen al mercado​ (Microsoft)

La participación en Foundry Labs permite a empresas españolas curiosear y cocrear con tecnología puntera, aportando feedback y, potencialmente, adoptando antes que la competencia soluciones diferenciadoras. Esta iniciativa refleja un espíritu de colaboración abierta: Microsoft no solo vende herramientas acabadas, sino que invita a la comunidad a explorar prototipos y contribuir a su maduración. Para el ecosistema español –que cuenta con hubs de IA en crecimiento, desde Barcelona a Madrid, pasando por Bilbao, Valencia, etc.–, sumarse a este tipo de laboratorios internacionales puede suponer acceso anticipado a avances importantes. En un país donde el talento en IA existe pero a veces falta conexión con los grandes focos de innovación, Foundry Labs brinda una vía para estar en la conversación global de la IA de vanguardia.

Adoptar plataformas como Azure AI Foundry implica confiar buena parte de la estrategia de IA a un proveedor externo. Algunas voces advierten del riesgo de dependencia excesiva: Enrique Dans señalaba recientemente que el “coche” de Microsoft en IA siempre ha llevado “ruedas de OpenAI”​ (Enrique Dans)  aludiendo a cómo Microsoft se apoyó en esa startup para ganar terreno rápidamente. Ahora Microsoft busca reducir su propia dependencia desarrollando sus modelos; de igual modo, una empresa usuaria debe vigilar no quedar cautiva de una sola tecnología.

Las pymes españolas, en particular, deben evaluar si subirse al tren de Foundry les compensa en términos de coste y de flexibilidad futura. ¿Qué ocurre si dentro de dos años aparece un modelo open source equivalente mucho más barato? ¿Podrán migrar fácilmente fuera del ecosistema Microsoft? Estas preguntas forman parte del análisis estratégico que cada compañía tiene que hacer.

Otro reto es el talento y formación. Tener la herramienta disponible es solo el primer paso; luego se necesita personal que sepa sacarle partido. Aunque Foundry simplifica mucho, sigue requiriendo conocimientos en diseño de prompts, comprensión de modelos, etc.

Existe el riesgo de que, sin la capacitación adecuada, las empresas implementen mal estas IA. De ahí que iniciativas de formación sean cruciales. No por casualidad, empresas como Microsoft y Google están ofreciendo cursos y certificaciones en IA generativa. De hecho, Google ha estimado que para aprovechar el potencial de la IA en España hará falta un fuerte impulso en formación digital, dado que el país arrastra carencias en competencias digitales avanzadas​

Voces expertas: una mirada crítica al futuro de la IA empresarial

El estilo “todo en uno” de Microsoft AI Foundry ha sido recibido con interés por la industria, pero también con cierta prudencia. (Enrique Dans), cuya trayectoria analizando tendencias tecnológicas le da una perspectiva de largo plazo, opina que el movimiento de Microsoft responde en parte a la necesidad de remediar su dependencia de OpenAI. Microsoft ha invertido más de 13.000 millones de dólares en OpenAI en los últimos años y ha obtenido enormes ventajas de esa alianza, pero “se ha puesto a trabajar para reducir la dependencia que tiene de OpenAI, desarrollando sus propios modelos para sustituir a ChatGPT en Copilot”​. Dans subraya que Microsoft ya está entrenando modelos propios más pequeños y personalizando modelos abiertos, con el objetivo de abaratar costes y controlar su destino​.

Esto es revelador: incluso el aliado más cercano de OpenAI busca diversificarse. La lección para otras empresas es similar. A corto plazo, usar la mejor IA disponible te da una ventaja; a largo plazo, quizás quieras tener tus “ruedas” propias. En el caso de Microsoft, Foundry podría ser también una plataforma para, el día de mañana, desplegar sus modelos propios en lugar de los de OpenAI si estos les resultan más eficientes. Para las empresas usuarias, podría implicar que en un futuro sus copilotos de Office funcionen con un modelo de Microsoft en vez de GPT-4, tal vez con menos espectacularidad pero más barato. La comoditización de la que hablábamos: si todos los grandes acaban teniendo sus versiones de modelos potentes, la batalla se traslada al terreno del costo y la conveniencia.

Otro punto que Dans destaca es la estrategia que muchas compañías seguirán: “lanzar prompts a RAGs corporativos… pero ir probando esos prompts en otros modelos más económicos, posiblemente de código abierto”

Es decir, aprovechar la infraestructura para usar GPT-4 en lo crítico, pero quizá para preguntas más triviales o tareas internas rutinarias, cambiar a modelos open source montados en servidores propios, que salen casi gratis. Optimización de costes por vía híbrida. Esto ya ocurre en algunas empresas tecnológicas avanzadas: combinan servicios como Azure OpenAI con modelos locales como LLaMA 2 para distintos niveles de servicio. Foundry en teoría facilita ese enfoque al soportar varios modelos bajo un mismo flujo. La pregunta, se plantea Dans, es si veremos pronto una “comoditización de los algoritmos de IA generativa” similar a lo que pasó con otras tecnologías disruptivas​.

En su análisis, es difícil que no suceda en el medio plazo: cuando la tecnología se popularice más, el valor se desplazará de vender “el mejor modelo” a integrar bien la IA en el negocio. Y para cuando eso ocurra, dice Dans, la cuestión no es qué pasará , sino cuándo y cómo evolucionará el panorama competitivo​. Microsoft AI Foundry puede verse como un movimiento para anticiparse a ese momento: fidelizar ahora a los clientes en su plataforma de desarrollo de IA, de modo que aunque mañana cambie el modelo subyacente, las empresas sigan construyendo en Azure.
 
En España varios académicos y especialistas en ética tecnológica subrayan la importancia de hacer un uso responsable de estas plataformas. Noelia Rodríguez, experta en IA de la Universidad Politécnica de Madrid, comentaba en un foro reciente que las empresas deben evitar caer en la “comodidad” de delegar todo en la herramienta y mantener supervisión humana especialmente en decisiones sensibles. Señaló que herramientas como Copilot o ChatGPT pueden alucinar y esto en un contexto empresarial puede ser problemático si no se ponen controles.  (Pureai)
 
Aun así, la responsabilidad última recae en la empresa usuaria para definir casos de uso apropiados, verificar resultados y garantizar que la IA complementa a sus empleados en vez de sustituir juicios críticos. En España, con la nueva Agencia de Supervisión de IA y la futura regulación europea (AI Act), las compañías tendrán que reportar cómo usan IA de alto riesgo. Disponer de un entorno como Foundry que facilita logs, explicaciones y controles podría ser una ventaja para cumplir con esos requerimientos. La transparencia será un valor en alza: no solo hacer IA, sino poder explicar qué hace tu IA y por qué toma ciertas decisiones. Ahí, los expertos ven margen de mejora, ya que incluso las plataformas actuales aún son cajas bastante opacas en cuanto a la lógica interna de los modelos.
 
En perspectiva, 2024-2025 se perfilan como años decisivos para sentar las bases de cómo la IA se integra en el tejido empresarial español. Las cifras indican que vamos en la dirección correcta: más de la mitad de las empresas nacionales ya están invirtiendo o planeando invertir en IA a corto plazo​ (La Razón), y los líderes de negocio cada vez comprenden mejor su valor estratégico. Pero también se avecina una fase de selección natural de proyectos: aquellos pilotos de IA que no demuestren valor caerán.