Como garantir a segurança em veículos autônomos?

Carros, ônibus, trens e aviões robôs já estão rodando e voando por aí, causando alguns acidentes e mortes. Cientistas procuram formas de evitar esses erros fatais

Notícias
 

Fonte: Quanta Magazine  |  Autor: Steve Nadis*  |  Postado em: 05 de fevereiro de 2024

Simulação de acidente com veículo-robô no Rio de J

Simulação de acidente com veículo-robô no Rio de Janeiro

créditos: Imagem gerada no app leonardo.ai

Com mais veículos autônomos, crescem os acidentes por falhas de sensores ou no processamento das informações. Agora os cientistas de computação estão trabalhando para reduzir as chances de erros e operar dentro de faixas mais seguras. Parece um jogo de palavras, mas a ideia é descobrir o que eles pensam que sabem, mas não sabem.


Carros e aeronaves sem condutores não são mais coisas do futuro. Só na cidade de São Francisco (EUA) até o mês de agosto de 2023, duas empresas de táxi fizeram um total de 13 milhões de quilômetros de viagens autônomas. E mais de 850 mil veículos aéreos autônomos, ou drones, estão registados nos EUA, sem contar os pertencentes aos militares.

 

Mas existem preocupações legítimas sobre segurança. Por exemplo, num período de dez meses que terminou em maio de 2022, a Administração Nacional de Segurança do Tráfego Rodoviário relatou quase 400 acidentes que envolviam alguma forma de controle automatizado. Seis pessoas morreram em consequência desses acidentes e cinco ficaram gravemente feridas.

 

A maneira usual de resolver esse problema envolve testar esses sistemas até que você esteja satisfeito com o nível de segurança alcançado. Mas você nunca terá certeza de que esse processo revelará todas as falhas potenciais. “As pessoas realizam testes até esgotarem seus recursos e paciência”, explica Sayan Mitra, cientista da computação da Universidade de Illinois, Urbana-Champaign.


Assim, os testes por si só não podem fornecer garantias, mas Mitra e seus colegas podem. Sua equipe conseguiu provar a segurança da capacidade de rastreamento de pista para carros e sistemas de pouso para aeronaves autônomas. A mesma estratégia agora está sendo usada para ajudar a pousar drones em porta-aviões, e a Boeing planeja testá-la em uma aeronave experimental este ano.


O trabalho envolve garantir a total eficiência dos algoritmos de aprendizado de máquina (machine-learning) usados para controlar os veículos-robôs. A maioria desses veículos automatizados têm dois componentes: um sistema de percepção e um sistema de controle. O sistema de percepção informa, por exemplo, a que distância o seu carro está do centro da pista, ou em que direção um avião está se dirigindo e qual é o seu ângulo em relação ao horizonte. O sistema leva os dados brutos de câmeras e outras ferramentas sensoriais para alimentar os algoritmos de aprendizado de máquina, que  recriam o ambiente fora do veículo.

 

Estas informações são então enviadas para um sistema separado, o módulo de controle, que decide o que fazer. Se houver um obstáculo próximo, por exemplo, ele decide se deve acionar os freios ou contorná-lo. De acordo com Luca Carlone, professor associado do Instituto de Tecnologia de Massachusetts (MIT), embora o módulo de controle dependa de tecnologia bem estabelecida, “ele toma decisões com base nos resultados da percepção e não há garantia de que esses resultados estejam corretos”.

 

Para garantir a segurança, a equipe de Sayan Mitra trabalhou na confiabilidade do sistema de percepção do veículo. Eles primeiro presumiram que é possível garantir a segurança quando uma representação perfeita do mundo exterior está disponível. Eles então determinaram quanto erro o sistema de percepção pode introduzir na recriação do ambiente real onde está o veículo.

 

A chave para esta estratégia é quantificar as incertezas envolvidas, conhecidas como banda de erro – ou as “incógnitas conhecidas”, como disse Mitra. Esse cálculo vem do que ele e sua equipe chamam de contrato de percepção. Na engenharia de software, um contrato é um compromisso de que, para uma determinada entrada de um programa de computador, a saída ficará dentro de um intervalo especificado. Descobrir esse intervalo não é fácil. Quão precisos são os sensores do carro? Quanta neblina, chuva ou brilho solar um drone pode tolerar? Mas se for possível manter o veículo dentro de uma faixa especificada de incerteza, e se a determinação dessa faixa for suficientemente precisa, a equipe da Mitra provou que é possível garantir sua segurança.


 Pedestres atravessam uma rua nos EUA ante um veículo autônomo Foto: rideapart.com


Analogia com a imprecisão de um velocímetro
É uma situação parecida com uma pessoa que esteja dirigindo um carro com um velocímetro impreciso. Se você sabe que o erro do dispositivo nunca passa de 8 km/h, então você pode evitar o excesso de velocidade permanecendo sempre 8 km/h abaixo do limite de velocidade. Um contrato de percepção oferece uma garantia semelhante de um sistema imperfeito que depende de aprendizado de máquina.


“Você não precisa de percepção perfeita”, disse Carlone. “Você só quer que seja bom o suficiente para não colocar a segurança em risco.” As maiores contribuições da equipe, disse ele, são “introduzir toda a ideia dos contratos de percepção” e fornecer os métodos para construí-los. Eles fizeram isso recorrendo a técnicas do ramo da ciência da computação chamado verificação formal, que fornece uma forma matemática de confirmar se o comportamento de um sistema satisfaz um conjunto de requisitos.


"Mesmo que não saibamos exatamente como a rede neural faz o que faz”, disse Mitra, é possível provar numericamente que a incerteza da saída de uma rede neural está dentro de certos limites. E, se for esse o caso, o sistema estará seguro. “Podemos então fornecer uma garantia estatística de que  uma determinada rede neural realmente atenderá a esses limites e em que grau”.

 

A empresa aeroespacial Sierra Nevada está estando essas garantias de segurança ao pousar um drone em um porta-aviões. Este problema é, de certa forma, mais complicado do que dirigir carros, devido à dimensão extra envolvida no voo. “No pouso, há duas tarefas principais”, disse Dragos Margineantu, tecnólogo-chefe de inteligência  artificial da Boeing: “alinhar o avião com a pista e garantir que a pista esteja livre de obstáculos. Nosso trabalho com Sayan envolve obter garantias para essas duas funções.”

 

Simulações usando o algoritmo de Mitra mostram melhoras no alinhamento de um avião antes do pouso”, disse ele. O próximo passo, planejado para o final de 2024, é empregar esses sistemas durante o pouso de um avião de verdade, embora experimental. Um dos maiores desafios, observam os pesquisadores, será descobrir a incerteza das estimativas e ver como isso afeta a segurança. “A maioria dos erros acontece quando fazemos coisas que pensamos saber, mas na verdade não sabemos.”


Notas:
1. Procuramos usar o termo veículo-robô em vez de veículo autônomo. Como nos explicou o professor Peter D. Norton, em uma entrevista, esses veículos não são autônomos, o que significaria que tomariam as decisões por si próprios, mas são robôs, programados para realizar tarefas segundo uma programação pré-estabelecida.
2. Um exercício interessante é ler os comentários do leitores do artigo original, na Quanta Magazine. Vários deles sugerem uma medida simples para eliminar os acidentes com esses veículos-robôs: simplesmente reduzir drasticamente a velocidade com que esses carros poderão circular nas cidades.

 

*Artigo originalmente publicado na revista Quanta Magazine, edição Janeiro 2014.
Tradução e adaptação: Marcos de Sousa/Mobilize Brasil. Leia o original em inglês


Leia também:
Carro autônomo, para que, para quem?
Difíceis decisões de um carro autônomo
Peter Norton desmonta (peça por peça) a ideia do carro high-tech


E agora, que tal apoiar o Mobilize Brasil? 
 

 

Comentários

Nenhum comentário até o momento. Seja o primeiro!!!

Clique aqui e deixe seu comentário