|
claudio53 |
|
|
Marzo 22, 2018, 08:16:02 am |
Visitatore, , posts |
|
Ma la donna non era piena di sacchi ?
Comunque mi spiace ma per me la colpa e' del veicolo e' al 100%. Le vetture uber hanno il lidar che se ne fregra altamente del fatto che ci sia la luce o meno. La donna e' apparsa improvvisamente alla telecamera, ma il lidar doveva riconoscerlo ben prima.
Anche noi usiamo un lidar (non a 360°, ma a 120°) simile a quello di uber, e che fa object tracking e lo usiamo proprio come sicurazza per evitare di sbattere contro oggetti o animali. E' in grado di riconoscere e classificare gli oggetti in movimento nel suo campo visivo, tra small, big, pedestrian, bike, car e truck ma soprattutto stima la loro velocità e direzione, proprio per capire se si sta avvicinando o allontanado (oppure e' fermo).
Quanto successo e' gravissimo... per un umano sarebbe da classificare come "inevitabile", per l'autonoma questa scusa non e' sostenibile. Qualcosa non ha funzionato come doveva
Perfettamente d'accordo.
|
|
|
|
Loggato
|
|
|
Phormula |
|
|
Marzo 22, 2018, 08:16:43 am |
Utente standard, V12, 12402 posts |
|
Un guidatore attento, forse. E forse un guidatore attento che sapeva, perchè conosceva il tratto di strada, che qualcuno avrebbe potuto attraversare. Non certo un guidatore medio in condizioni normali, come guidiamo tutti la maggior parte del tempo, soprattutto su percorsi abituali.
|
|
Le opinioni altrui sono come i pareri sulle mutande. Puoi sentirne quanti ne vuoi, ma è quando ci metti dentro le chiappe che scopri se ti vanno bene o no.
|
|
|
claudio53 |
|
|
Marzo 22, 2018, 08:19:15 am |
Visitatore, , posts |
|
Un guidatore attento, forse. E forse un guidatore attento che sapeva, perchè conosceva il tratto di strada, che qualcuno avrebbe potuto attraversare. Non certo un guidatore medio in condizioni normali, come guidiamo tutti la maggior parte del tempo, soprattutto su percorsi abituali.
Credo che vista l'illuminazione della strada, le riflessioni dei fari, un umano avrebbe visto un'ombra e avrebbe evitato l'ostacolo. Le nostre capacità di elaborazione sono molto superiori a quelli degli attuali sistemi automatici. Il video inganna, è un contrasto innaturale, noi vediamo meglio nel buio di quello che sembra dalla ripresa video.
|
|
|
|
Loggato
|
|
|
Phormula |
|
|
Marzo 22, 2018, 08:27:21 am |
Utente standard, V12, 12402 posts |
|
No. Anzi, noi abbiamo una attenzione selettiva, per cui molti incidenti accadono perché non notiamo qualcosa in bella vista solo perché il cervello non si aspetta che ci sia. È stato appena pubblicato uno studio interessante in tal senso.
|
|
Le opinioni altrui sono come i pareri sulle mutande. Puoi sentirne quanti ne vuoi, ma è quando ci metti dentro le chiappe che scopri se ti vanno bene o no.
|
|
|
&re@ |
|
|
Marzo 22, 2018, 08:30:06 am |
Utente standard, V12, 77628 posts |
|
Il video dimostra chiaramente che la tecnologia attuale è totalmente immatura per essere adoperata ovunque. Azzo..., strada larga, zero traffico, niente pioggia, un pedone che si muove lentamente e lo centri in pieno senza un accenno di frenata. Alla faccia dell'alta tecnologia... Siamo a livelli di un cruise control e poco più... Sono d'accordo Hanno fatto bene a fermare tutto.
Qui meno, nel senso che secondo me è giusto che la sperimentazione continui, MA con personale umano che DEVE vigilare, non farsi i cazzi propri. Se il tuo lavoro è quello di guardare cosa cazzo fa la macchina, non devi nemmeno sbatterti a dare gas, cambiare o sterzare, fallo e basta, tenendo un bel piedone sul freno. E secondo me (allacciandomi a quello che dice Claudio) un guidatore umano attento sarebbe riuscito a fare qualcosa. Non so se avrebbe evitato l'impatto al 100%, ma qualcosa avrebbe fatto. Non mi capacito di come i radar non possano averla rilevata, poveretta.
|
|
|
|
Loggato
|
|
|
Phormula |
|
|
Marzo 22, 2018, 08:49:52 am |
Utente standard, V12, 12402 posts |
|
Io mi capacito benissimo. Basta prendere il manuale di una vettura dotata di frenata automatica per capire come la cosa possa essere sfuggita.
|
|
Le opinioni altrui sono come i pareri sulle mutande. Puoi sentirne quanti ne vuoi, ma è quando ci metti dentro le chiappe che scopri se ti vanno bene o no.
|
|
|
mauring |
Il gas si espande nel vuot(t)o |
|
Marzo 22, 2018, 09:01:05 am |
Utente standard, V12, 46998 posts |
|
I sistemi di riconoscimento devono funzionare di notte come se fosse giorno (mi pare ovvio, come dice alura), quindi a me sa che la prendeva in pieno anche se era giorno.
E' questa la cosa terribile.
Sono stati fortunati che è stata presa di notte, così ci sono le scuse del buio, la supercazzola prematurata dell'apparizione improvvisa, e "l'umano non avrebbe fatto meglio", ecc.
Se la prendeva di giorno era da sospensione immediata dei test per 10 anni.
|
|
|
|
|
Homer |
|
|
Marzo 22, 2018, 09:28:01 am |
Staff, V12, 89897 posts |
|
Ma la donna non era piena di sacchi ?
Comunque mi spiace ma per me la colpa e' del veicolo e' al 100%. Le vetture uber hanno il lidar che se ne fregra altamente del fatto che ci sia la luce o meno. La donna e' apparsa improvvisamente alla telecamera, ma il lidar doveva riconoscerlo ben prima.
Anche noi usiamo un lidar (non a 360°, ma a 120°) simile a quello di uber, e che fa object tracking e lo usiamo proprio come sicurazza per evitare di sbattere contro oggetti o animali. E' in grado di riconoscere e classificare gli oggetti in movimento nel suo campo visivo, tra small, big, pedestrian, bike, car e truck ma soprattutto stima la loro velocità e direzione, proprio per capire se si sta avvicinando o allontanado (oppure e' fermo).
Quanto successo e' gravissimo... per un umano sarebbe da classificare come "inevitabile", per l'autonoma questa scusa non e' sostenibile. Qualcosa non ha funzionato come doveva
ecco appunto... a parte il nostro fenomeno alla guida che ormai si è abituato a fare lo slalom fra le buche della sua sindaca e quindi riuscirebbe a evitare qualsiasi incidente con i suoi riflessi prodigiosi, non si deve ridurre il sistema elettronico alla pari di un pilota normale...
|
|
Giorgio (TO, 46, 110, 75, 150) Opel Mokka 1.5D Elegance 2022 Suzuki Vitara 1.6 HT 1989 Triumph Tiger 1200 Rally Pro 2023
|
|
|
Homer |
|
|
Marzo 22, 2018, 09:33:18 am |
Staff, V12, 89897 posts |
|
No. Anzi, noi abbiamo una attenzione selettiva, per cui molti incidenti accadono perché non notiamo qualcosa in bella vista solo perché il cervello non si aspetta che ci sia. È stato appena pubblicato uno studio interessante in tal senso.
speta, qui c'è un lidar...i sistemi di frenata automatica spesso usano delle semplici telecamere
|
|
Giorgio (TO, 46, 110, 75, 150) Opel Mokka 1.5D Elegance 2022 Suzuki Vitara 1.6 HT 1989 Triumph Tiger 1200 Rally Pro 2023
|
|
|
mauring |
Il gas si espande nel vuot(t)o |
|
Marzo 22, 2018, 09:48:16 am |
Utente standard, V12, 46998 posts |
|
Guardando meglio il video penso che un umano avrebbe evitato l'incidente.
Ci sono perfino 2 lampioni, non era una zona completamente oscura. Sembra sia piu' scura di quella che è, perché probabilmente la telecamera è accecata dai lampioni e crea troppo contrasto, ma l'occhio umano in quelle condizioni avrebbe sicuramente scorto la persona che stava attraversando, ben prima che si trovasse davanti alla macchina nel raggio dei fari.
Scorrendo i fotogrammi addirittura sembra che la donna appaia dal nulla (avranno taroccato il filmato ? ) mentre non è assolutamente possibile in quelle condizioni di luce (lampioni).
|
|
|
|
|
claudio53 |
|
|
Marzo 22, 2018, 09:54:48 am |
Visitatore, , posts |
|
ecco appunto... a parte il nostro fenomeno alla guida che ormai si è abituato a fare lo slalom fra le buche della sua sindaca e quindi riuscirebbe a evitare qualsiasi incidente con i suoi riflessi prodigiosi, non si deve ridurre il sistema elettronico alla pari di un pilota normale...
Ma dai, mica vedi come nel filmato, la telecamera altera il contrasto, ci sono i lampioni, la vedevi eccome prima che entrasse nel campo dei fari. Basta un vecchietto con gli occhiali. E se non era distratto, il tester avrebbe evitato l'incidente. « Ultima modifica: Marzo 22, 2018, 10:38:55 am da claudio53 »
|
|
|
|
Loggato
|
|
|
claudio53 |
|
|
Marzo 22, 2018, 09:56:21 am |
Visitatore, , posts |
|
No. Anzi, noi abbiamo una attenzione selettiva, per cui molti incidenti accadono perché non notiamo qualcosa in bella vista solo perché il cervello non si aspetta che ci sia. È stato appena pubblicato uno studio interessante in tal senso.
Quando guidi usi anche la visione periferica, sennò sai quanti incidenti ...
|
|
|
|
Loggato
|
|
|
claudio53 |
|
|
Marzo 22, 2018, 09:59:18 am |
Visitatore, , posts |
|
Guardando meglio il video penso che un umano avrebbe evitato l'incidente.
Ci sono perfino 2 lampioni, non era una zona completamente oscura. Sembra sia piu' scura di quella che è, perché probabilmente la telecamera è accecata dai lampioni e crea troppo contrasto, ma l'occhio umano in quelle condizioni avrebbe sicuramente scorto la persona che stava attraversando, ben prima che si trovasse davanti alla macchina nel raggio dei fari.
Scorrendo i fotogrammi addirittura sembra che la donna appaia dal nulla (avranno taroccato il filmato ? ) mentre non è assolutamente possibile in quelle condizioni di luce (lampioni).
Credo sia "accecata" dai fari della macchina, non per nulla c'è un lidar che non ha funzionato. Se funziona così, i test li dovrebbero fare solo su circuiti prova con ostacoli artificiali. Si, lo so che dovrebbero averli già fatti, ma da quello che è successo non si direbbe. « Ultima modifica: Marzo 22, 2018, 10:09:49 am da claudio53 »
|
|
|
|
Loggato
|
|
|
mauring |
Il gas si espande nel vuot(t)o |
|
Marzo 22, 2018, 10:42:07 am |
Utente standard, V12, 46998 posts |
|
https://www.forbes.com/sites/jimmcpherson/2018/03/20/uber-autonomous-crash-death/#f7648437fbee How Uber's Self-Driving Technology Could Have Failed In The Fatal Tempe CrashInvestigators from the National Highway Traffic Safety Administration and the National Transportation Safety Board are descending on Tempe, Ariz., to investigate the death of a woman struck late Sunday night by an Uber self-driving car. Given the NTSB’s well-deserved reputation for thoroughness, and given the amount of data that should be available from the witness, the physical evidence and the car’s data storage devices, there is little reason to doubt that NTSB will be able to identify any and all causes of the collision, and present a comprehensive report to the public—perhaps within a year.
While police, commentators and the press chase issues of fault and liability, safety advocates and the self-driving community will be focused squarely on how this collision could have occurred when Uber’s suite of sensors, hardware and software all exist specifically to avoid collisions like this one.
TechCrunch’s Devin Coldewey published an informative piece on Monday describing Uber’s self-driving hardware and its role in detecting pedestrians and vulnerable road users. The Uber’s redundant and parallel suite of sensors include radar, LIDaR and a camera array, all focused on sensing and seeing persons and objects in the roadway, day or night.
So how could they all not have detected Elaine Herzberg walking at least 40 feet across an open street? By all accounts she was not cloaked in a high-tech, radar-evading, light-deflecting material designed for stealth; she was an ordinary person in ordinary clothing, doing what ordinary people do—crossing a street. She was also pushing a bicycle laden with bags, which should have created a larger profile and presented materials (namely, metal) that would have made her even more likely to have been detected by the car.
Unfortunately, there are numerous ways autonomous vehicle hardware and software can fail, alone or in combination. It is important to note that there is no reason to believe that any of the following occurred here; these are merely hypothetical discussion points for illustration purposes only.
First, sensors may not sense. Ms. Herzberg was walking at night, and less light makes detection more difficult for the human eye and for camera sensors. Absence of light should be irrelevant to LIDaR and radar performance, but each sensor can separately be obstructed, dirty, soap-scummed or fly-specked.
Video footage reviewed by police will only be as good as the sensor, aperture, light-gathering and resolving power of the camera and lens. In other words, footage they have seen may not necessarily correlate to what a human could see that evening, or would see under similar lighting conditions.
Investigators will undoubtedly attempt to verify that all sensors were online, clean, calibrated and operational. NTSB may ultimately recommend that more sensors—or different kinds of sensors, such as thermal or infrared—might be prudent to fill any detection gaps in similar operating domains.
Second, sensors can often see an obstruction, but machine learning algorithms can assess it as a shadow, a stationary sign, or something else ‘white-listed’ by programmers as objects to ignore. Recall that the investigation into Joshua Brown’s death in May 2016 while using his Tesla AutoPilot focused on whether the freeway-crossing semi-tractor trailer was ‘white-listed’ and misclassified as an overpass to be ignored. If an object is sensed but misidentified, programming can select the wrong course of action—including no action—in response.
Third, a car’s hardware could sense a figure, but due to conflicting inputs from different sensors, or prioritization of one sensor over the other, or due to insufficient learning data, the artificial intelligence ‘brain’ might find no definitive object classification match and simply not know how to respond. Given a limited library of objects and experiences, and a short list of actions to take in response, software might select the playbook for proceeding on course.
Fourth, an autonomous car may not stop for a pedestrian in the road because of the Trolley Problem. Using the present collision for illustrative purposes only, the car might have seen Ms. Herzberg perfectly at the last second, and even understood that she was a human being and potential collision danger, but it followed programming designed to take the least-dangerous course of action for its passenger(s) under the circumstances. It could also have prioritized staying the course over the potential liability if it abandoned the legal right of way.
The possibility of an autonomous vehicle developer doing this is almost too sinister to imagine, yet there are presently no laws that would require automated vehicles to take evasive action that might increase the risk of harm to passengers or bystanders. A fatality caused by the Trolley Problem would undoubtedly invite a strict pre-certification scheme and scrutiny of developers going forward.
Fifth and finally, an automated vehicle is an electronic device like any other; it can experience a host of electronic problems that other devices experience, including signal interference, power loss, loose wires, signal latency, cyber-hacking, packet conflicts, boot loop, pet hair in the fan vent, or any other failures of non-hardened, non-automotive grade computer components, all of which can foreseeably lead to fatalities.
As the police, press and commentators debate unrelated issues of liability and fault, automation safety advocates can trust that NTSB will do all that is required to determine what truly occurred in the car and what needs to be done to prevent it from happening again.
A few lonely autonomous vehicle safety advocates have been raising safety questions for some time now. With all eyes on autonomy after Elaine Herzberg’s senseless death, answers must finally be given.
|
|
|
|
|
|