Um incidente invulgar nos Estados Unidos voltou a colocar a tecnologia de condução assistida da Tesla no centro das atenções, depois de um Model 3 ter ficado preso numa linha de comboio e ter sido atingido por uma composição. O condutor do veículo alega que o sistema de “condução autónoma” do carro foi o responsável pelo sucedido, reacendendo o debate sobre as capacidades e os limites desta tecnologia.
O episódio ocorreu em Sinking Spring, na Pensilvânia, e, felizmente, não resultou em feridos, uma vez que o condutor conseguiu sair do carro antes da colisão. No entanto, o caso levanta questões importantes sobre a interação entre o condutor e os sistemas de assistência, especialmente quando as coisas correm mal.
O relato de um acidente invulgar
De acordo com os alertas dos serviços de emergência locais, o Tesla Model 3 contornou as barreiras de uma passagem de nível e acabou por ficar imobilizado sobre a via-férrea. O condutor, ao perceber o perigo iminente, abandonou o veículo a tempo. Pouco depois, um comboio colidiu com o carro, embora o impacto tenha sido relativamente ligeiro, resultando apenas na quebra do espelho retrovisor lateral.
Apesar dos danos menores, a situação exigiu uma operação complexa. Foi necessário interromper todo o tráfego ferroviário na área para que as equipas de emergência pudessem remover o Model 3 da linha em segurança, uma tarefa que exigiu o uso de uma grua. A empresa de reboques responsável pela operação, a Spitlers Garage & Towing, partilhou algumas imagens do processo nas suas redes sociais, mostrando o veículo a ser retirado dos carris. O ponto central da história, no entanto, é a alegação do condutor: a culpa foi do carro, que estava em “modo de condução autónoma”.
A tecnologia ‘Full Self-Driving’ e a responsabilidade do condutor
Esta alegação coloca o foco sobre o pacote de software da Tesla, conhecido como “Full Self-Driving” (FSD). É crucial que entendas a diferença entre o nome do produto e a sua real capacidade, pois é aqui que reside grande parte da controvérsia.
O que é, e o que não é, o sistema da Tesla
A Tesla comercializa o FSD como um extra que pode custar até cerca de 14.000 euros. Apesar do nome “Condução Autónoma Total”, o sistema não torna o veículo 100% autónomo. Pelo contrário, trata-se de um sistema avançado de assistência à condução que exige, em todos os momentos, a supervisão ativa e constante do condutor. A própria Tesla afirma que o condutor permanece legalmente responsável pelo veículo em todas as circunstâncias. A promessa da marca, feita em 2016, de que todos os seus carros teriam capacidade de condução autónoma total sem supervisão através de atualizações de software, ainda não foi cumprida.
Duas hipóteses para o que pode ter acontecido
Diante do ocorrido, surgem duas interpretações possíveis. A primeira é a de que o condutor possa ter tido um comportamento imprudente e, posteriormente, tenha culpado a tecnologia para se isentar de responsabilidades, uma situação que já foi reportada noutros incidentes envolvendo veículos Tesla.
A segunda hipótese, no entanto, é que o sistema FSD possa ter cometido um erro. O software da Tesla é programado para contornar obstáculos, como barreiras de construção. É plausível que, neste caso, o sistema tenha tentado navegar à volta da barreira da passagem de nível e tenha calculado mal a manobra, acabando por imobilizar o carro sobre os carris.
Outros artigos interessantes: