







Artículo: AMZ-B07R53D12W
Coprocesador acelerador ML de TPU de borde USB para Raspberry Pi y otros ordenadores de placa única embebidos
Sin stock
0.20 kg
No
Nuevo
Amazon
- Especificaciones: Microprocesador Arm de 32 bits Cortex-M0+ (MCU): hasta 32 MHz máximo 16 KB de memoria flash con ECC 2 KB de RAM conexiones: puerto y cable USB 3.1 (Gen 1) (SuperSpeed, velocidad de transferencia de 5Gb/s)
- Características: Coprocesador acelerador ML de TPU de borde de Google, USB 3.0 Tipo C hembra, compatible con Debian Linux en CPU host, los modelos están construidos con TensorFlow. Compatible totalmente con arquitecturas MobileNet e Inception a través de arquitecturas personalizadas. Compatible con Google Cloud
- Especificaciones: Microprocesador Arm de 32 bits Cortex-M0+ (MCU): hasta 32 MHz máximo 16 KB de memoria flash con ECC 2 KB de RAM Conexiones: puerto y cable USB 3.1 (gen 1) (SuperSpeed, velocidad de transferencia de 5Gb/s)
- Características: Coprocesador acelerador ML de TPU de borde de Google, USB 3.0 Tipo C, compatible con Debian Linux en CPU host, los modelos están construidos con TensorFlow. Compatible totalmente con arquitecturas MobileNet e Inception a través de arquitecturas personalizadas. Compatible con Google Cloud.
- Características: Coprocesador acelerador ML de TPU de borde de Google, USB 3.0 Tipo C, compatible con Debian Linux en CPU host, los modelos están construidos con TensorFlow. Compatible totalmente con arquitecturas MobileNet e Inception a través de arquitecturas personalizadas. Compatible con Google Cloud.
Sin stock
Seleccione otra opción o busque otro producto.
Conoce más detalles
El acelerador USB Coral aporta potentes capacidades de inferencia de ML (aprendizaje automático) a los sistemas Linux existentes. Con el Edge TPU, un pequeño ASIC diseñado y construido por Google, el acelerador USB proporciona una inferencia de ML de alto rendimiento con un bajo coste energético a través de una interfaz USB 3.0. Por ejemplo, puede ejecutar modelos de visión móvil de última generación, como MobileNet v2 a más de 100 fps, de manera eficiente en términos energéticos. Esto permite una inferencia de ML rápida a dispositivos de IA embebidos de una manera eficiente en energía y que preserva la privacidad.