Durante más de 40 años, los humanos han mantenido su dominio sobre los robots en el tenis de mesa, pero los recientes avances de Google DeepMind sugieren que esta superioridad podría estar llegando a su fin. Según un artículo preliminar publicado el 7 de agosto, los investigadores han desarrollado el primer sistema robótico capaz de competir a nivel amateur contra jugadores humanos en este deporte. Este desarrollo marca un hito en la inteligencia artificial y la robótica, ya que combina estrategia y habilidades físicas en tiempo real, áreas en las que la IA ha sido tradicionalmente menos efectiva.

Un brazo robótico equipado con una pala de ping pong se enfrenta a un jugador humano en una partida de tenis de mesa. El brazo robótico, marcado con el logotipo de ABB, está en posición para devolver la pelota mientras el jugador humano, concentrado, se prepara para el siguiente golpe. En el fondo, se pueden ver otras personas sentadas observando o trabajando en computadores, en lo que parece ser un entorno de laboratorio o investigación.

El tenis de mesa ha sido un campo de pruebas clave para la robótica debido a sus altos requerimientos computacionales y físicos, que incluyen la rápida adaptación a variables dinámicas, movimientos complejos y coordinación visual. A diferencia de juegos como el ajedrez o el Go, que se centran en la estrategia pura, el tenis de mesa requiere una combinación única de habilidades de bajo nivel, como devolver la pelota, y de alto nivel, como la planificación estratégica a largo plazo.

Para crear este sistema avanzado, los ingenieros de Google DeepMind comenzaron recopilando un extenso conjunto de datos sobre el estado inicial de las pelotas de tenis de mesa, incluyendo su posición, giro y velocidad. Utilizando estos datos, el sistema de IA practicó en simulaciones virtuales físicamente precisas para aprender técnicas como la devolución de saques, el tiro de revés y el topspin de derecha. Una vez que el sistema había perfeccionado sus habilidades en el entorno virtual, se conectó a un brazo robótico capaz de realizar movimientos complejos y rápidos, y se enfrentó a jugadores humanos en partidas reales. Este proceso de aprendizaje se optimizó mediante un ciclo continuo de retroalimentación, en el que los datos de los partidos se analizaban y se utilizaban para mejorar el rendimiento del robot.

En un torneo organizado por Google DeepMind, el sistema robótico compitió contra 29 jugadores humanos, clasificados en cuatro niveles de habilidad: principiante, intermedio, avanzado y “avanzado+”. El robot logró ganar un total de 13 partidos, lo que representa el 45% de los desafíos. Si bien el robot superó a todos los jugadores de nivel principiante y ganó el 55% de sus partidos contra competidores intermedios, no logró vencer a ningún jugador de nivel avanzado. A pesar de los resultados, los participantes del estudio describieron la experiencia como «divertida» y «entretenida», y muchos expresaron un gran interés en disputar más partidos contra la máquina.

Fuente

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí