El Aprendizaje Federado es un enfoque de Machine Learning y Deep Learning que permite el entrenamiento colaborativo de modelos utilizando datos que permanecen distribuidos en diferentes dispositivos o servidores. A diferencia del aprendizaje tradicional, no es necesario centralizar los datos, lo que mejora significativamente la privacidad y la seguridad. Nuestro compañero Guillermo González explicó esto durante su ponencia en el evento “Driving Business Models and Solutions with EdgeAI”, donde también presentó los avances del proyecto europeo NOUS.
- Inicialización del modelo global
- Distribución de los parámetros (pesos y sesgos) del modelo global (inicialmente aleatorios) a los modelos locales
- Entrenamiento de cada modelo local con sus propios datos, obtenidos de dispositivos Edge como contadores inteligentes, vehículos, teléfonos móviles, maquinaria hospitalaria, entre otros
- Envío de los pesos y sesgos actualizados de cada modelo local al modelo global
- Agregación de los pesos en el modelo global y repetición del proceso
El objetivo es crear un modelo global que aprenda de las contribuciones de todos los modelos locales. Este enfoque logra una mejor generalización sin comprometer los datos, ya que estos nunca abandonan los dispositivos locales: solo se transmiten los parámetros del modelo. Es una técnica ideal para sectores como la sanidad, las finanzas o las telecomunicaciones, donde la privacidad de los datos es fundamental.
Beneficios del Aprendizaje Federado
- Privacidad de los datos
- Soberanía del usuario/cliente
- Escalabilidad (fácil de añadir más clientes – modelos locales)
- Seguridad mediante descentralización
- Robustez, ya que el entrenamiento no depende de un único modelo
- Análisis en el Edge, con menor latencia y tiempos de respuesta más rápidos


Aprendizaje Federado en el Proyecto NOUS
Liderado por el AIR Institute en colaboración con 21 socios de 11 países diferentes, el proyecto NOUS trabaja en la construcción de una infraestructura cloud europea a gran escala con el objetivo final de permitir el intercambio de información entre múltiples clientes y el entrenamiento de algoritmos de alta demanda computacional.
Se basa en tres componentes clave:
- Compute → Provisión de infraestructura para algoritmos de alto coste
- Edge → Almacenamiento y entrenamiento de modelos localmente en dispositivos de los usuarios
- Data → Un hub central seguro mediante DLTs y Blockchain
Los dispositivos locales almacenan los datos en bases de datos locales, entrenan modelos y envían los pesos del modelo al modelo global alojado en el hub central en la nube.
Simultáneamente, los datos son hasheados (encriptados mediante un algoritmo), y este hash se envía al sistema DAG y a la blockchain para aumentar la seguridad. Esto permite almacenar referencias a los datos en lugar de los datos mismos.
Si un cliente requiere acceso a los datos de otro, se implementan mecanismos de trazabilidad que permiten el acceso bajo petición, pero nunca se permite el acceso directo a los datos — al menos no dentro del marco del Aprendizaje Federado.
El modelo global recibe parámetros de muchos modelos locales y debe determinar cómo agregarlos. El método más utilizado es FedAvg, que pondera los parámetros de cada modelo según el tamaño del conjunto de datos con el que fue entrenado — otorgando mayor influencia a los modelos entrenados con mayores volúmenes de datos.
Caso de uso: Predicción de consumo energético
Un caso de uso interesante implica a contadores inteligentes en diferentes hogares que recopilan datos de consumo eléctrico. Un modelo se entrena localmente en cada vivienda con sus propios datos, y luego cada uno envía sus parámetros al modelo global.
En general, los beneficios de utilizar un enfoque de Aprendizaje Federado incluyen una mayor precisión al entrenar múltiples modelos en lugar de solo uno, una mayor privacidad de los datos ya que nunca abandonan el entorno local, una escalabilidad más sencilla y, lo más importante, la posibilidad de habilitar la colaboración indirecta de datos sin comprometer la seguridad.