Hugging Face lanzó oficialmente dos versiones de su nuevo robot de escritorio, el «Reachy Mini», con la intención de facilitar la programación y el desarrollo de inteligencia artificial desde cualquier lugar. El dispositivo, presentado como un kit de código abierto, permite a los usuarios construir, personalizar y compartir aplicaciones de IA sin necesidad de herramientas costosas o entornos complejos.
Y como les decíamos, Reachy Mini está disponible en dos presentaciones: la ‘Lite’, por $299 dólares, que necesita conexión a un computador externo para funcionar, y la versión ‘Wireless’, a $449 dólares, que integra una Raspberry Pi 5, batería y conectividad Wi-Fi. Ambos modelos son totalmente programables en Python y en un futuro próximo también ofrecerán compatibilidad con JavaScript y Scratch. Además, incluyen una serie de comportamientos preinstalados que pueden modificarse o ampliarse desde la plataforma Hugging Face Hub, donde ya existen más de 1.7 millones de modelos de IA disponibles.
El robot mide 28 cm de alto y pesa 1.5 kg. Su diseño compacto y expresivo incorpora cabeza con seis grados de libertad, rotación de cuerpo, antenas animadas, cámara de ángulo amplio, micrófonos y altavoces. Estas características le permiten interactuar a través de audio y video de forma natural con personas.
Reachy Mini y la robótica ‘abierta’
Tras la compra de Pollen Robotics, Hugging Face transformó sus ambiciones de software en un proyecto tangible de robótica física. La estrategia de ofrecer hardware de código abierto responde al interés de miles de desarrolladores que buscan herramientas asequibles para trabajar con IA más allá de las pantallas.
El robot puede probar aplicaciones reales y también usarse en entornos simulados. La comunidad de Hugging Face puede compartir sus creaciones en la plataforma Spaces, promoviendo así un ecosistema colaborativo donde la innovación se distribuye entre los usuarios.
Reachy Mini ya comenzó su fase de pedidos. Las primeras unidades Lite serán enviadas a finales del verano estadounidense de 2025 y la versión inalámbrica llegará de forma progresiva durante el resto del año y en 2026. En ambos casos, el ensamblaje será parcialmente realizado por el usuario, lo que refuerza el enfoque educativo y experimental del proyecto.