Nvidia lanza un nuevo modelo de IA para la conducción autónoma
Nvidia ha presentado este lunes nuevos modelos y herramientas de inteligencia artificial (IA), incluyendo Alpamayo-R1, un modelo de razonamiento abierto, visión, lenguaje y acción (VLA) a escala industrial para la conducción autónoma.

En concreto, Alpamayo-R1 (AR1) integra el razonamiento de IA en cadena de pensamiento con la planificación de rutas, un componente que la compañía ve "crucial para mejorar la seguridad de los vehículos autónomos en escenarios viales complejos y permitir la autonomía de nivel 4".
"Mientras que las iteraciones anteriores de modelos de conducción autónoma presentaban dificultades con situaciones complejas (una intersección con muchos peatones, un cierre de carril inminente o un vehículo estacionado en doble fila en un carril bici), el razonamiento proporciona a los vehículos autónomos el sentido común para conducir de forma más parecida a la de los humanos", explica Nvidia.
Este modelo logra este objetivo desglosando un escenario y "razonando cada paso", lo que le vale para considerar "todas las trayectorias posibles" y luego emplear estos datos contextuales "para elegir la mejor ruta".
"Por ejemplo, al aprovechar el razonamiento en cadena de pensamiento que permite AR1, un vehículo autónomo que circula por una zona con gran cantidad de peatones junto a un carril bici podría tomar datos de su recorrido, incorporar rastros de razonamiento (explicaciones de por qué realizó determinadas acciones) y utilizar esa información para planificar su trayectoria futura, como alejarse del carril bici o detenerse ante posibles peatones imprudentes", detalla.
El nuevo Alpamayo-R1 estará disponible en GitHub y Hugging Face, y un subconjunto de los datos utilizados para entrenar y evaluar el modelo está disponible en los conjuntos de datos abiertos de IA física del fabricante estadounidense de chips.




