Le futur des voitures autonomes

  • Initiateur de la discussion Initiateur de la discussion Volkan
  • Date de début Date de début
"Son système a détecté Herzberg à 0,9 seconde avant l'impact lorsque la voiture était à environ 15 mètres. Le PDG de Cortica, Igal Raichelgauz, affirme que cette distance était suffisante pour permettre à un véhicule autonome de réagir et sauver la vie d'Elaine Herzberg."
 
Les capteurs se moquent de la visibilité tant qu'il n'y a pas d'obstacle !

un peu comme les capteurs de la reconnaissance des panneaux de limitation de vitesse. dont certains se plaignent ici.
un peu comme les capteurs pour la gestion des phares que j'ai pu tester hier soir vers minuit dans de petits villages et sur route nationale non éclairée.
Mon ami qui était au volant de sa belle merco c'est quand même fait remonter les bretelles à au moins 4 à 5 reprises. :sad::evil:.
constatations , ça marche bien , MAIS pas tout le temps.
imaginons avec des systèmes beaucoup plus complexes 😱
 
Tesla Model 3

A partir de 5 Mpixel, l’œil humain est dépassé en définition

Et il s’agit de Uber qui bricole des voitures autonomes, pas de Tesla qui fait du Fleet learning avec des centaines de millier de véhicules depuis des années.

Tesla a 10 ans d’avance grâce à cela.
 
L'oeil humain voit un photon. Mais il est battu à plate couture par la technologie CCD qui voit l'infrarouge.

Les capteurs qui voient sur ces voitures autonomes sont des LIDARs, c'est-à-dire des lasers qui percent la nuit noire.

On nous montre à voir l'image fallacieuse du mouchard de pare-brise. C'est inepte et ignoble, du niveau d'un snuff movie. Pour l'humanité et la raison on repassera.
 
Tesla a 10 ans d’avance grâce à cela.

Vous confondez complètement les enjeux dont il est question, vous parlez juste d'autopilot, une technologie qui consiste à suivre la route et à freiner ou éviter si un obstacle se présente.

Rien de bien compliqué. Mais une Tépala a tapé en 2016, parce que l'assistance à la conduite n'a pas été assistée par le pilote, qui regardait un Harry Potter selon le conducteur du semi.

Il s'agit maintenant pour Tépala et tous les acteurs de fournir non plus une assistance à la conduite assistée par un pilote, mais une conduite 100% autonome fiable.

C'est une autre affaire, à laquelle s'employaient totota et uper à coup de LIDAR avant l'accident qui marque un coup d'arrêt à la campagne d'essais sur route ouverte.

On attend avec impatience de voir comment elles font sans LIDAR "moche et cher" selon Elon, mais avec radar et vision artificielle accouplée à des réseaux neuronaux. RDV dans dix ans.
 
Ils savent déjà apprendre à une caméra ce que c’est de la pluie pour activer les essuie-glaces...

Toutes les autos remontent des infos en temps réel tout le temps...

Je ne pense pas qu’il faudra 10 ans, l’IA semble aussi progresser selon la loi de Moore...
 
:siffle:..Espérons que l'IA conaitra l'orthographe pour ne pas confondre avec la loi de mort...!
 
Dernière édition:
:cheveux:Sacré correcteur....même en réaffichant le message, il trouve que tout va bien......encore une IA en panne.....?

(et dire que j'en avais.......mis deux)
 
"Le magazine New York rapporte des propos qu'aurait tenus Anthony Levandowski en 2016 devant une équipe d'ingénieurs de Uber : "Je suis énervé que nous n'ayons pas eu le premier mort". Cela faisait suite au premier accident mortel d'un conducteur de Tesla ayant utilisé l'Autopilot."

L'uperisation à marche forcée demande moins de précautions.

"il faut déployer les 1 000 premières voitures dès que possible. Je ne comprends pas pourquoi nous ne le faisons pas. Une partie de notre équipe semble avoir peur de franchir le pas".

"Nous devons réfléchir à la stratégie, prendre tous les raccourcis que nous pouvons trouver. Je vois juste cela comme une course et nous devons gagner, la deuxième place est le premier perdant" (source The Verge).

Tout ça pour faire la course au billet vert en tête.

"Anthony Levandowski a été licencié, l'ex-PDG et fondateur d'Uber, Travis Kalanick, débarqué."
 
L IA et la voiture autonome est un sujet trop sérieux pour qu on laisse ça a uber...

La preuve en image... https://m.youtube.com/watch?v=_CdJ4oae8f4

Les laisser bidouiller sur route ouverte devrait leur être interdit depuis longtemps
 
C'est pas vraiment au point.
On comprends mieux pourquoi Google Cars est devenu Waymo une entité autonome de Google pour ne pas "salir" le nom google en cas de gros crash
 
Si la conduite sans risque est trop compliquée pour l'IA en 2018, Ray Kurzweil prédisait en 2015 qu'un simple ordinateur à 1000 $ pourrait émuler la puissance de calcul d'un cerveau humain en 2022.

Il ne s'agit pas ensuite de programmer cette puissance de calcul comme le cerveau d'un Sébastien Loeb. On veut juste une conduite pépère, zéro risque. Ce qui ne semble pas compliqué.

Cependant, c'est la conduite sur route ouverte qui demande le plus de ressources au cerveau humain.

Dans le domaine automobile, plusieurs révolutions en cours se heurtent à des murs qui ne tomberont qu'avec des sauts technologiques impressionnants : informatique avec l'ordinateur quantique, nanotechnologique pour les batteries et les piles à combustibles.

Or l'état de l'art en IA en 2018 demande qu'on peuple la mémoire des voitures autonomes avec d'innombrables situations enregistrées au long des kilomètres parcourus, faisant subir les dépens des éventuels accidents aux autres usagers.
 
On peut alimenter les ordinateurs avec des situations enregistrées mais virtuelles ! On peut d'ailleurs ainsi créer autant de situations très réalistes (ou fréquentes) qu'assez irréalistes (ou exceptionnelles).

Il faudra encore un certain temps (aussi précis que celui du fût du canon pour refroidir) avant que toute forme artificielle soit capable de piloter de façon totalement autonome. Les bases sont relativement simples mais les cas particuliers sont nombreux voire quasi infinis y compris dans leurs topologies. Pour comparer, cela fait maintenant une trentaine d'années que l'on essaie de faire de la traduction automatique ; il y maintenant des traducteurs qui fonctionnent pour restituer le sens général d'un texte mais ils sont toujours assez loin de pouvoir être précis et complets.

Le futur proche des véhicules autonomes me paraît limiter à des environnements maîtrisés tels ceux de certains sites industriels.

En attendant, il faudra apprendre aux intelligences artificielles à conduire et la conduite assistée en double commande avec responsabilité totale du formateur me paraît la solution la plus raisonnable même si ce n'est apparemment pas ce qui a été retenu par Uber voire par Google pour leurs tests de voitures autonomes !
 
On doit s'attendre à n'avoir et pour longtemps, que des IA faibles et froides assistant des opérateurs humains vigilants, tenus par la loi à ne pas lire ou regarder un film en roulant.

Ce ne sont pas des automates à rouler psychopathes au sens propre du terme, sans émotions, qu'il faut faire.

Une voiture autonome de route ouverte plus intéressante, pour cohabiter sans encombre avec tous les fous du volant qui les fréquentent aurait une conscience de soi.

C'est de l'IA forte sensible, dont on a un aperçu dans le sublimissime film "Ex machina", où le fameux thème du "démon dans la boîte" est abordé.

Ce type d'IA restera malheureusement longtemps inaccessible. La conscience de soi n'est pas possible sans un corps sensible, elle nous a été donnée après des millions d'années d'évolution.
 
J’adore le passage sur le système autonome dangereux et plus en développement, génial !

Vous n'êtes pourtant pas sans savoir que le retard de tépala est conséquent par rapport aux vraies voitures autonomes à IA faible apprenante d'ex gogole car.

L'autonomie proposée par autopilot n'est qu'une assistance à la conduite assez bas du front. Et la qualité de l'assistance ne dépend que du balisage "bénévole" des parcours.

Sur http://www.leparisien.fr/
En juillet 2016, un automobiliste américain avait déjà trouvé la mort au volant d’une berline Model S de Tesla équipée d’Autopilot. Le NTSB avait estimé que le système était en partie responsable de l’accident et n’aurait pas dû être utilisé sur la route où était survenu l’accident car celle-ci n’était pas adaptée à cette technologie.

Le 23 mars [2018], un Américain a perdu la vie à bord de sa voiture électrique. Le logiciel autorisant les manœuvres sans l’intervention du conducteur était activé.

Et la firme tépala s'est bien sûr empressée de communiquer pour se défausser sur le propriétaire de la voiture, qui n'a pas ... blablabla. Scandaleux !
 
quand j'ai essayé une tesla modèle S , j'ai pu aussi essayer l'auto pilote sur une route nationale MAIS le gars assis à côté de moi m'a bien fait comprendre que la route sur laquelle nous étions n'était pas tout à fait appropriée.
il faut donc bien choisir son terrain de jeu au risque de connaitre des problèmes.

nous mêmes commettons beaucoup d'erreurs sur la route et en plus , il y a d'autres paramètres incontrôlables , ...les autres usagers. :jap:
 
Dernière édition:
Tesla en général

@ Hyperion

Lors du dernier accident avec autopilot, il apparaît que le conducteur a ignoré 3 alertes pour reprendre le contrôle du véhicule.

Et oui, pour l’instant auto pilot n’est pas très évolué au niveau de l’IA, mais le fleet learning est une aide précieuse pour acquérir des masses de données et nourrir l’IA.

Et les progrès vont très très vite.

N’oubliez pas que tesla a du ré écrire le logiciel quand ils se sont séparé des services de mobileye.
 
Pendant l’émission de ORLM ( http://youtu.be/zifFcu5gRZA ) à bord d'une Tesla X, pendant une heure on peut constater la prédominance des "BIP BIP" sonores.
Si le conducteur est noyé dans les alertes il n'arrive plus à les hiérarchiser, et peut passer outre à celle qui est primordiale.

Y'a encore du boulot sur l'ergonomie "Homme - Machine" qui est forcement différente de celle " Machine - Machine" du niveau 5 du véhicule autonome.
 
Dernière édition:
Je suis peut être un peu trop C.N, surement même, mais cette histoire "d'auto pilote" ne m'inspire guère confiance.

J'aurai beaucoup de mal à faire confiance à l'IA. Comme nous tous, je ne suis pas né avec cette technologie, et je considère trop la conduite d'une voiture comme un plaisir que je ne suis pas prêt à partager avec un robot.

D'un naturel méfiant, si je me fais conduire, c'est que mon moyen de locomotion se trouve sur des rails ou qu'il dispose d'un conducteur humain.

Les évènement récents font que ce n'est pas demain la veille que je me déplacerai grâce à l'IA.

Mais actuellement, on ne nous demande rien et le problème, selon moi, ce sont ces voitures "test" qui circulent et qui peuvent croiser mon chemin.

Pour l'instant, il y a toujours quelqu'un derrière le volant (même si les évènement récents ont montré que ça n'exclue pas un accident) mais dans quelques années ce sera véritablement autonome.

Je suis inquiet. Je n'ai jamais eu une confiance totale dans les machines. Je préfère largement l'humain, même s'il est souvent faillible.

L'IA réagit bien plus vite que l'homme, c'est un fait avéré. Mais seulement si la situation d'urgence est détectée.
Hors ce n'est pas toujours le cas.

L'homme qui a détecté la situation d'urgence pourra réagir tardivement mais peut être ralentir fortement et limiter la force de l'impact.
L'IA qui na rien détecté projette le véhicule sans ralentissement, et l'impact est énorme. Surtout si les occupants ne sont plus attentifs à ce qui se passe devant eux.

Bref, j'ai pas confiance et les faits récents me confortent dans ma position.
 
Le problème ce n'est pas dans ce cas précis la voiture qui roule toute seule, mais la personne débile qui traverse sans regarder qu'une voiture lui arrive dessus.
 
Certes, les systèmes ne sont pas encore mûrs, mais ça va évoluer. Les progrès ont été extraordinaires ces dernières années (qui aurait pensé ça possible à si brève échéance il y a 15 ans ?) et ça ne va pas s'arrêter là. Dans quelque temps, nous aurons des véhicules autonomes bien plus sûr que ceux qui sont conduits par des humains. A tel point qu'un jour viendra où il sera vu comme dangereux, voire criminel, de conduire soi-même. Et, de fait, si tous les véhicules sont pilotés par des machines, qui respectent (elles !) des règles précises et qui communiquent entre elles (ce sera le cas dans quelque temps), il y a beaucoup moins de "surprises" et le risque d'accident est très diminué.

Il y aura de la résistance mais dans quelques générations, nous n'aurons plus le choix : nos véhicules n'auront plus de volant. Profitez du vôtre !
 
Personnellement, je ne suis pas contre la conduite autonome: je passe environ 800-1000h sur la route tous les ans, des fois je m'en lasse. 😢 Même si j'aime conduire.

Cependant, je trouve inacceptable qu'on attende d'un humain (moi par exemple) qu'il surveille le fonctionnement d'un "piloteauto". On est pas du tout fait pour ça, essayez de surveiller votre lave-linge:-D:-D C'est d'un ennui profond.

Je considère que soit la machine ne doit rien faire du tout et dans ce cas je suis responsable de mes erreurs, soit la machine fait tout et le fabricant est totalement responsable. Un passager n'est pas responsable du crash d'un avion...
 
Pages vues depuis le 20 Oct 2005: 317,020,938
Retour
Haut Bas