Te va a interesar!

6/recent/ticker-posts

Testear autos Tesla parece ser muy divertido...

Entre el feed de noticias sobre Testing, tecnología y Automation que me cae a diario, hubo una noticia que me causó curiosidad, gracia y miedo...todo al mismo tiempo.
Vieron que ya hace un tiempo existen los autos Tesla con una función de Autopilot. No están lanzados a "Production" digamos, pero es algo que vienen probando hace un tiempo con moderada suerte. Este feature del Autopilot se basa en Machine Learning, estudiando el contexto en el que está moviéndose el auto mediante la creación de puntos de referencia (muchos) y calculando en función de eso el camino a seguir.
El exploit que descubrieron los muchachos fue que, si se colocaban unos puntos en el camino con cinta o un material que no revelaron pero que, según dicen, era bastante casero y fácil de conseguir, el sistema entendía que tenía que cruzar de carril y doblaba cuando NO tenía que hacerlo.
Imagínense que esto abre todo tipo de peligros tanto intencionales como no. Alguien tira un paquete de galletitas o restos de papel que por casualidad quedan en el camino de manera tal que el Autopilot del Tesla se cruza de carril con otro viniendo de frente. O tal vez gente con intención de robar o causar daño acomoda ésto para redireccionar autos Tesla de manera tal que caigan en su trampa...Las posibilidades son infinitas y no muy seguras!
Esto llevó a la redefinición de cómo testear los sensores infrarojos, cámaras y radares que son los encargados de estudiar el entorno del auto y tomar decisiones en base a eso al alimentar la data a los procesadores dentro del auto.
Los que están detrás de este, uno de los proyectos de testing más divertidos que debe haber por ahí, son los investigadores del Tencent's Keen Security Lab. Ellos fueron los que descubrieron que poniendo los stickers de una manera determinada, lograban el exploit que confunde al auto. Y eso que es algo que para el que maneja es prácticamente invisible! Imaginen que son puntos con cinta puestos en la calle, que según el ángulo y la distancia en la que se ponen, forman el patrón que le dice al auto "tenés que cruzarte de carril".
Los investigadores dieron a conocer la función que está detrás de actualizar el mapa del auto y manda esa información al controlador. Esta función envía varios CUDA Kernels para distintas tareas, como son:
En esta función descubrieron que se toman varias medidas para evitar detecciones incorrectas, como era de esperar. Pero eso no salvó al auto de otro exploit...Pudieron aprovecharse de una vulnerabilidad (ahora ya parcheada y probada en el firmware 2018.24 de Tesla) que les permitía manejar los autos con un joystick. Si...con un joystick. También pudieron activar los limpiaparabrisas al engañar al sistema que usa Machine Learning con imágenes, ya que el Tesla no se basa por sensores de humedad como otros tradicionales, sino que se basa en el procesamiento de imágenes para decidir si está cayendo lluvia o no.

Como ven, Machine Learning e Inteligencia Artificial están teniendo un foco muy importante en la industria del Software, y está generando la necesidad de Testing más que nunca. Por qué? Porque estos sistemas están siendo usados para tareas cotidianas y generación de modelos científicos que, de no funcionar correctamente, ponen en peligro directamente vidas. En mi opinión, es una tecnología que está aún algo verde y necesita de al menos unos diez años más antes de estar lo suficientemente madura como para ser usada en la vida del ser humano de manera confiable...pero vamos a ser capaces de confiar ciegamente en tareas realizadas por estos algoritmos? Quién los prueba? Los probaron bien? Es un debate muy interesante que se cierne sobre el futuro del ser humano sin dudas!

The Free Range Tester

Publicar un comentario

0 Comentarios