Pesquisadores da Sony criaram uma nova inteligência artificial que é capaz de vencer os melhores pilotos de Gran Turismo, um dos jogos de corrida mais populares para PlayStation. 

Batizada de GT Sophy, a tecnologia se junta à lista de outras soluções de inteligência artificial que conseguiram superar os maiores campeões humanos em jogos como pôquer, xadrez, Go e Starcraft. 

Conforme descrevem os pesquisadores em seu artigo, publicado na revista acadêmica Nature, o sucesso da GT Sophy é uma prova inédita de que é possível treinar uma inteligência artificial para que ela seja melhor que os maiores pilotos humanos, utilizando diversos tipos de carros e pistas. 

Print de um vídeo disponibilizado pelo artigo em que GT Sophy joga Gran Turismo.
GT Sophy, a tecnologia se junta à lista de outras soluções de inteligência artificial que conseguiram superar os maiores campeões humanos em jogos.

Aprendizado reforçado

Ao treinar a IA, os pesquisadores da Sony descobriram que ela era capaz de ultrapassar 95% dos jogadores humanos após dois dias. Já na semana seguinte, a tecnologia continuou a reduzir alguns décimos de segundo do tempo necessário para completar o circuito. 

A estratégia utilizada pela GT Sophy foi aprender quais eram as faixas mais rápidas da pista em diferentes circuitos, além de técnicas de aceleração e frenagem, quando bater em um carro à frente ou desviar para ultrapassá-lo. 

Deixar os outros competidores para trás não era o suficiente, no entanto. A inteligência artificial também precisou levar em consideração as regras do jogo e as penalizações para cada tipo de infração. 

Os pesquisadores explicam que a GT Sophy foi baseada em “reinforcement learning”, ou “aprendizado reforçado”, uma técnica comum no campo da inteligência artificial. 

Basicamente, o que a equipe da Sony fez foi alimentar a IA com diversas partidas de Gran Turismo, utilizando a estratégia de maximizar as recompensas para tempos de corrida menores e minimizar as penalizações por colisões e outras infrações, permitindo que o programa dominasse o jogo.

Redes neurais e carros autônomos

Apesar da conquista impressionante da GT Sophy, suas funções não se limitam apenas a vencer corridas de Gran Turismo. O jogo é apenas uma forma de mostrar a capacidade da inteligência artificial de aprender estratégias para lidar com determinadas situações em que o julgamento humano pode interferir nos resultados. 

Exemplo disso é o fato de que mesmo os jogadores mais experientes utilizam a estratégia de dirigir o mais perto possível do piloto que está à frente. No entanto, se o corredor que está na liderança frear abruptamente, haverá uma colisão quase inevitável. 

Outra possível aplicação da GT Sophy seria no mercado de carros autônomos. As redes neurais utilizadas atualmente, como as da DeepMind, são capazes de identificar objetos de forma eficaz. Porém, algumas tarefas, como planejar qual seria a melhor faixa da pista a ocupar, são baseadas apenas em física. 

A nova tecnologia desenvolvida pelos pesquisadores da Sony, por outro lado, mostra que as redes neurais também podem ser treinadas para executar tarefas mais complexas. 

Apesar das conquistas, a equipe responsável pela GT Sophy afirma que a inteligência artificial ainda tem muito a aprender. Ao dirigir em uma pista reta, por exemplo, o programa tenta ultrapassar os oponentes na primeira oportunidade, muitas vezes deixando espaço para que o piloto retome a liderança logo em seguida. 

Além disso, ao eliminar as penalizações por colisões, os pesquisadores afirmam que a IA tornou-se “notavelmente mais agressiva”.

Você também pode gostar