Intel Movidius Neural Compute Stick

Intel ha anunciado el lanzamiento del módulo Movidius Neural Compute Stick, el primer kit de inferencia de aprendizaje profundo basado en USB y acelerador de inteligencia artificial (AI) independiente del mundo, que aporta la capacidad de procesamiento de una red neuronal profunda dedicada a una amplia gama de dispositivos receptores externos.

24.07.2017 Con el lanzamiento del módulo Movidius Neural Compute Stick, Intel acaba de dar un paso importantísimo para la expansión de la inteligencia artificial (IA). Diseñado para desarrolladores de productos, investigadores y fabricantes, el módulo Movidius Neural Compute busca reducir las actuales barreras al desarrollo, ajuste e implantación de aplicaciones de IA, ofreciendo la elevada capacidad de procesamiento de una red neuronal profunda dedicada en un módulo de tamaño reducido.

intel AI

Con su extensa cartera de herramientas de IA, así como opciones para el entrenamiento y la implantación de la siguiente generación de productos y servicios basados en IA., Intel mantiene el compromiso de ofrecer las herramientas de desarrollo y los recursos más completos, para asegurar que los desarrolladores puedan equiparse de cara a una economía digital basada en IA.

En palabras de Remi El-Ouazzane, vicepresidente y director general de Movidius, empresa propiedad de Intel: La VPU Myriad 2 alojada en el interior del módulo Movidius Neural Compute ofrece un rendimiento elevado a la vez que eficiente, con más de 100 gigaflops y un consumo de 1W, permitiendo utilizar redes neuronales profundas en tiempo real directamente desde el dispositivo. Esto permite implementar una amplia gama de aplicaciones de IA offline.

El desarrollo de la inteligencia artificial se compone de dos etapas fundamentales: (1) entrenar a un algoritmo mediante grandes conjuntos de datos utilizando técnicas modernas de aprendizaje automático y (2) utilizar el algoritmo en aplicaciones finales encargadas de interpretar datos reales. Esta segunda etapa se conoce como “inferencia” y aplicar la inferencia de forma externa, o de forma nativa desde el dispositivo, aporta numerosos beneficios en términos de latencia, consumo y privacidad.

El módulo Movidius Neural Compute ya se encuentra disponible a un precio recomendado de 79 dólares, a través de distribuidores seleccionados.

*Para más información: www.intel.com

2017-07-24T10:20:31+00:00 24/07/2017|Tendencias|1 Comment