Quizá, en poco tiempo, descubriremos y asumiremos colectivamente que los coches autónomos son mucho más seguros que los coches conducidos por humanos. Sin embargo, hasta que llegue ese momento, vamos a tener que ir dando pasos intermedios para favorecer que la gente no se sienta incómoda o en tensión.
Cuando vamos a cruzar un paso de cebra, por ejemplo, subestimamos la importancia de crear un teoría de la mente del conducto del coche que está a punto de cruzar justo también por encima de ese paso de cebra.
Es decir, podemos hacer contacto visual con el condcutor, advertir que él nos ha visto, o señalizar al conductor que le hemos visto a él. Que se quiere detener, o que hace amago de continuar. Todo este lenguaje no verbal y que se basa en predecir intenciones resulta imposible si el conductor del coche autónomo es un algoritmo. No podemos crear una teoría de la mente de un algoritmo.
Primeros pasos
Una posible solución para este problema lo ha propuesto Drive.ai, una compañía que gestiona furgonetas autónomas en Texas. Los vehículos de color naranja brillante y azul tienen señales LED en los cuatro lados que responden al contexto con mensajes a fin de que se produzca cierto feedback no solo con los peatones, sino también con los eventuales ocupantes del vehículo.
Estas señales pueden decirle a un peatón que quiere cruzar frente al automóvil algo así como "te espero a que pases" o pueden advertirle: "espera que paso yo".
Una estrategia relacionada está dirigida a pasajeros, no a peatones: pantallas en vehículos Waymo muestre a los ocupantes de automóviles una versión simple y animada de lo que está viendo el vehículo autónomo. Esas pantallas también pueden mostrar lo que está haciendo el vehículo, como si se estuviera deteniendo para permitir que un humano se cruce.
Todo lo cual significa que si los vehículos son predecibles y hacen lo que dicen que harán, es más probable que las personas confíen en ellos. Poco a poco.
Ver 1 comentarios