
Tabla de contenido
Un coche autónomo se define por Sinopsis como “un vehículo capaz de detectar su entorno y operar sin intervención humana”.
¿Qué constituye un coche autónomo?
Los automóviles autónomos o autónomos a menudo están equipados con varios sensores y cámaras y armados con algoritmos para lograr una experiencia de conducción automatizada.
La Sociedad de Ingenieros Automotrices ha desarrollado seis niveles para describir los vehículos autónomos, clasificando estos automóviles de automatización manual a completa.
En los niveles cero a dos, los humanos conducen o supervisan automóviles en acción. En los niveles tres a cinco, los sistemas automatizados monitorean los vehículos en su entorno.
La mayoría de las empresas solo han crecido hasta el nivel dos, pero existen el nivel 3, automatización condicional, y el nivel 4, alta automatización.
No hay coches en el mercado que hayan cumplido con los estándares para colocarse en el nivel cinco, lo que significa que no hay coches totalmente autónomos.
Con poca o ninguna supervisión gubernamental, muchas compañías están presionando para crear el automóvil autónomo consumido, lo que en última instancia ha resultado en una conducción descuidada en todo el país.
Peligros en la carretera: el accidente de Uber
Uno de esos casos de negligencia por parte de una compañía que busca avanzar en su automóvil autónomo ocurrió en 2018 en Phoenix, Arizona.
Durante una prueba piloto del programa, un peatón fue atropellado y asesinado por un automóvil autónomo de Uber.
Los sensores del automóvil encontraron al peatón que cruzaba fuera del paso de peatones y no determinaron a tiempo cuál era el objeto o si el peatón estaba en el camino del automóvil, lo que provocó que golpeara a la víctima.
El conductor de rescate humano, un contratista independiente, no intervino a tiempo y, según los informes, vio NBC La Voz en el momento del accidente.
El conductor suplente fue acusado más tarde de homicidio negligente, y aunque los fiscales se negaron a presentar cargos, Uber terminó su programa piloto en Arizona.
La Junta Nacional de Seguridad en el Transporte señaló varias fallas de Uber que resultaron en el accidente.
El grupo de tecnología avanzada de Uber no tenía un plan de seguridad corporativo, ni un gerente de seguridad dedicado ni un gerente de seguridad en el momento del accidente, informa. El Verge.
De hecho, se informó que la compañía había comenzado a evadir los protocolos de seguridad para acelerar el período de prueba y reducir los costos de investigación y desarrollo, reduciendo el número de conductores de seguridad de dos a uno por automóvil.
Lo más importante es que la compañía desactivó el sistema de frenado de emergencia y esperaba que el conductor de emergencia humano interviniera.
Tesla lanza la conducción totalmente autónoma* (*pero no realmente)
Si bien la acusación puede hacer que algunas compañías suspendan sus iniciativas de conducción autónoma, no disuadió al fabricante de automóviles Tesla.
En octubre de 2020, Tesla introduce una “función de conducción totalmente autónoma” a sus coches.
Como una característica futura para todos los Tesla, la función permite que el automóvil dirija y acelere, conduzca en entornos urbanos y de carretera, y responda a las señales de alto y las luces rojas, todo sin ayuda humana.
El fabricante de automóviles ha puesto la actualización a disposición de un grupo selecto de conductores en este momento, pero la medida ha planteado muchas preocupaciones de que la compañía trata a sus consumidores como sujetos de prueba humanos y no considera la seguridad del consumidor o del consumidor.
El fabricante de automóviles ya ha sido criticado por su programa “Autopilot”, actualmente en automóviles, al que se le ha mentido.tiene tres muertes mientras conducía desde su lanzamiento público.
La Administración Nacional de Seguridad en el Transporte en Carreteras dijo que la agencia está investigando más de una docena de incidentes de mal uso de la tecnología de piloto automático, que solo es similar a la tecnología de aviación en su nombre, aunque los conductores a menudo son responsables de su mal uso.
Tesla Autoblog Tenga en cuenta que se jacta en su sitio web de todas las capacidades de conducción autónoma del programa mientras publica en una fuente pequeña que los conductores deben monitorear el automóvil.
Bryant Walker Smith, profesor de derecho en la Universidad de Carolina del Sur que estudia los autos sin conductor, dijo que la medida fue en la dirección del engaño: “Deja el reino del engaño y la irresponsabilidad a algo que podría llamarse fraudulento”.
Steven Shladover, ingeniero de investigación de UC Berkeley, dijo a AutoBlog: “Esto está engañando activamente a las personas sobre las capacidades del sistema, según la información que he visto al respecto”.
Shladover continuó: “Esta es una característica muy limitada que aún requiere un monitoreo constante del conductor”.
Una coalición de líderes de la industria formada por Waymo, Uber, Ford y otros que también están creando autos autónomos también está en desacuerdo con el lanzamiento, criticándolo con el argumento de que el automóvil todavía depende de un conductor humano.
De acuerdo con el Washington Post, Los códigos de vehículos de California establecen que los automóviles autónomos deben poder “realizar la tarea de conducción dinámica de manera sostenida sin el control constante o el monitoreo activo de un individuo”, y las pruebas exhaustivas del modo de conducción autónoma requieren una licencia de California. Tesla no ha obtenido ni demostrado que cumpla con los criterios para el permiso.
(Falta de) normas y reglamentos sobre conducción autónoma en Coches Autónomos.
Quizás más impactante que los equívocos de Tesla o su afán por continuar frente a la negligencia es que no existe una legislación federal para supervisar el desarrollo o las pruebas de automóviles autónomos en los Estados Unidos.
Si bien algunos estados y ciudades tienen leyes y ordenanzas de coches autónomos, no existe una directriz federal establecida para garantizar la seguridad del público o los conductores de estos automóviles.
Las compañías de vigilancia señalan que la inacción y el abandono del gobierno federal son la causa de los riesgos de seguridad de la conducción autónoma.
The Associated Press Ethan Douglas, analista senior de políticas de Consumer Reports, cree que la seguridad debe ser requerida por el gobierno para que las empresas cumplan. “… Sin estándares obligatorios para los autos autónomos, siempre habrá compañías que escatimen en seguridad”, dijo.
Douglas continuó: “Necesitamos reglas de seguridad inteligentes y robustas para que los autos autónomos alcancen su potencial de salvar vidas”.
Uber ha reanudado las pruebas de vehículos autónomos en Pittsburgh, y Elon Musk de Tesla ha expresado su deseo de expandir el programa autónomo y tener una flota de autos autónomos para usar como taxis como Uber y Lyft.
Pero antes de eso, es posible que tengan que luchar para cambiar la percepción del público sobre la tecnología, ya que los incidentes recientes no están ayudando a la opinión pública sobre los automóviles autónomos.
Casi tres de cada cuatro estadounidenses creen que la tecnología no está lista para el público, y alrededor del 48 por ciento dice que no usaría un taxi autónomo o un vehículo de viaje compartido.
Hay un largo camino por recorrer para crear un automóvil autónomo que cumpla con los estándares científicos y de seguridad.
Actualmente, hay muchos los límites de la capacidad de los coches autónomos, incluyendo, pero no limitado a: conducción urbana, cruzando puentes, conducir con mal tiempo, situaciones de conducción a alta velocidad, vulnerabilidad a los hackers, y conducir por carreteras sin marcas claras.
Aunque se supone que son la tecnología del futuro, las circunstancias que rodean a los vehículos autónomos están haciendo que las personas cuestionen la realidad actual de estos.
Crédito de la imagen: Diverse Photography / Shutterstock.com