Salta al contenuto principale

Google Car, causa incidenti perché troppo rispettosa delle regole

Ieri sembrava quasi fantascienza, oggi, per molti, è realtà. I test eseguiti sulle auto-robot, le automobili che si guidano da sole come la Google Car, proseguono dal 2009. Gli incidenti registrati in fase di prova sono stati, in tutto, 16, ma la causa è però sempre la stessa: l’essere umano. Queste automobili sbagliano per “eccesso di prudenza” e non è ancora chiaro cosa ne "pensino" dei motociclisti...
La prudenza non è mai troppa?
Sembra paradossale, ma il vero problema della Google Car, l’auto-robot che si guida da sola, parrebbe proprio quello di essere “troppo perfetta”. O meglio, troppo rispettosa delle regole e del codice stradale: nella teoria, più che di difetto, bisognerebbe parlare, in questo caso, di pregio, ma nella pratica, le cose cambiano. A spiegare il paradosso basta un semplice esempio: le strisce pedonali impongono al guidatore di rallentare e far passare il pedone. Ciò nonostante, sono tantissimi gli automobilisti che, ignorando la regola, non si fermano. Ecco dunque il problema: l’automobile rispetta le regole, l’essere umano no. L’ultimo incidente verificatosi in fase di test reso noto da Google martedì scorso, riguarda proprio un caso di tamponamento in prossimità delle strisce pedonali: l’automobile a guida autonoma ha - giustamente - rallentato per permettere l’attraversamento di un pedone, ma il collaudatore, l’autista “di sicurezza” sempre presente nell’abitacolo, è intervenuto azionando manualmente i freni. Risultato: la Google Car è stata tamponata dall’auto che seguiva. Stando a quanto scritto nel rapporto redatto dalla stessa Google in merito all’incidente, seppur il "safety driver”, premendo i freni, abbia fatto la cosa giusta, se l'auto fosse stata lasciata libera di agire “liberamente” così come da programmazione, essa avrebbe potuto frenare meno bruscamente, avvicinarsi di più alle strisce pedonali e concedere al conducente che seguiva più tempo per frenare. Tom Supple, collaudatore presso la Silicon Valley, ha dichiarato "Questa automobile seguirà sempre le regole. Intendo dire che lo farà al punto che i conducenti in carne e ossa si chiederanno: perché quella macchina si sta comportando così?”. La questione riguarda dunque il modo migliore per permettere a esseri umani e robot di interagire tra loro nel modo più sicuro, scavalcando il problema dei due universi differenti dai quali gli uni e gli altri provengono: quello delle “regole” e quello “dell’improvvisazione e dell’istinto”.
Un altro esempio chiarisce come l’automobile sbagli proprio per “eccesso di prudenza”: durante un secondo test, avvicinandosi a un semaforo rosso, la Google Car, avendo rilevato un veicolo proveniente dalla direzione opposta a “velocità ritenuta non sicura” ha bruscamente sterzato a destra per evitare l'eventuale collisione. Come spesso avviene, in realtà, il veicolo “tradizionale” si è avvicinato al semaforo rosso troppo velocemente per frenare in modo più energico solo in prossimità dello stop, mandando così in tilt i sensori del robot.
Come ha spiegato Donald Norman, direttore del Design Lab dell’Università della California, “il vero problema è che sono troppo sicure”, esse “devono imparare ad essere aggressive nella giusta dose. E la giusta dose dipende dalle differenti culture”. Sì perché -altro problema da considerare- immettersi in una rotatoria o in una tangenziale a New Dheli, a Londra o a Roma significa compiere manovre tra loro assai differenti. Rimane poi da chiarire il discorso motociclisti: come potrebbe comportarsi una Google Car tanto “educata” e liga al dovere con una moto che, zigzagando a cavallo delle corsie si fa strada nel traffico? Cosa potrebbe accadere a un motociclista che, per superare una coda, dovesse affianCare, a sinistra e magari pure nell’altra corsia, la macchina robot?
Aggiungi un commento