Unidad de LD-Agents, es un conjunto de herramientas de código abierto desarrollado por la Unidad para mejorar la IA de un juego con el aprendizaje automático. Normalmente cuando se desarrolla una IA para un juego, que le comprueba para ver si una determinada condición es verdadera (es decir, se puede ver el reproductor?) Y luego ejecuta una determinada acción (es decir, ataque). Esta forma de AI funciona, pero en el núcleo de las cosas que puede ser predecible y limitante.

El aprendizaje automático permite agentes (enemigo, coche AI, cualquier cosa que desee tener una IA) para aprender de forma automática a través del aprendizaje de refuerzo, el aprendizaje de imitación y muchos otros tipos de aprendizaje. Lo que esto significa es que no se está diciendo específicamente al agente qué hacer. En lugar de ello, está desarrollando su cerebro las horas extraordinarias con el fin de que ellos determinen cómo hacer una determinada tarea con un número de entradas dadas.

Tabla de contenidos

Look Veamos un ejemplo

Vamos a ir a través de un ejemplo de la formación de un agente ML (esto es de un proyecto de ejemplo la Unidad de LD-Agents). Tenemos un agente que puede mover y girar sobre una superficie plana. Su objetivo es empujar un bloque en el objetivo final. Podemos entrenar el cerebro de este agente, por lo que no importa la posición inicial del bloque o meta, que siempre será capaz de completarlo. El agente también puede detectar el mundo circundante con 14 raycasts disparando desde todas las direcciones. Esto puede dar información sobre lo que el agente puede ver y qué tan lejos.

Lo más probable, la primera sesión se iniciará con el agente de pie quieto o moverse en una dirección aleatoria. Si seguimos a ejecutar estas simulaciones muchas, muchas veces, con el tiempo el agente golpeará el bloque y tal vez incluso accidentalmente moverse en la meta. Aquí es donde las recompensas de agentes son útiles. Siempre que el agente hace algo que progresa su aprendizaje (es decir, mover el bloque en la meta), le damos 1 recompensa. En general, esto significa que el comportamiento recompensado se trasladarán a las simulaciones futuras y las horas extraordinarias el agente se reunirán más conocimiento sobre dónde colocarse con respecto al bloque, la dirección que necesita para empujar, etc. Después de cientos (quizás miles) de las simulaciones el cerebro del agente debe ser lo suficientemente desarrollada como para que se pueda empujar el bloque (sin importar la posición inicial) en el objetivo en todo momento.

He aquí un vistazo al ejemplo de bloque de empuje que nos fuimos de nuevo.

ML-Agentes paquete

En este momento, ML-Agents está todavía en desarrollo, pero se puede descargar desde la página de la Unidad GitHub aquí. Además, puesto que aún está en desarrollo y dado que la formación se realiza a través de Python, hay cosas adicionales que necesita para su descarga e instalación, pero los tutoriales proporcionados pasará a través de eso. ML-agentes también incluye más de 15 entornos ejemplo, mostrando muchos diferentes tipos de juego y cómo los están entrenados.

Enlaces

Tutoriales

Demos

No se pierda! extremos de la oferta en

  • Accede a los más de 200 cursos
  • Nuevos cursos añadió mensual
  • Cancelar en cualquier momento
  • Los certificados de terminación

    ACCESO ahora

    Mensajes relacionados

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *