El 'RT-2 AI' de DeepMind es un nuevo modelo que traduce la visión y el lenguaje en acción para el control robótico. Es el primero de su tipo en aprender tanto de datos web como de robótica, y en generalizar su conocimiento a tareas novedosas sin entrenamiento explícito.
RT-2 puede interpretar los comandos del usuario, realizar un razonamiento rudimentario y adaptarse a diferentes situaciones y entornos. Se basa en RT-1, un modelo entrenado en demostraciones multitarea, pero muestra un rendimiento mejorado y una comprensión semántica más allá de los datos robóticos a los que estuvo expuesto.RT-2 AI tiene implicaciones significativas para las industrias de robótica e IA, ya que demuestra el potencial de combinar datos a escala web con datos robóticos para el aprendizaje de robots. Este enfoque puede reducir la necesidad de una recopilación y anotación de datos costosa y que consume mucho tiempo para tareas específicas de robots, y permite robots más conscientes del contexto, adaptables y versátiles que pueden realizar tareas complejas y abstractas. RT-2 AI también muestra el poder de los modelos de visión-lenguaje-acción, que pueden cerrar la brecha entre la comprensión del lenguaje natural y el control robótico. RT-2 AI podría allanar el camino para una mayor inteligencia e interacción de robots similares a los humanos.
Crédito de la imagen: Shutterstock
Referencias: deepmind y venturebeat
via : www.tecnoneo.com
No hay comentarios:
Publicar un comentario