Detalles del proyecto
Descripción
La seguridad vial es uno de los principales indicadores de calidad de vida en una ciudad. Aspectos como una infraestructura inadecuada y el crecimiento desbordado del parque automotor afectan la seguridad [1], pero el principal factor de riesgo es el comportamiento y las interacciones que se generan entre todos los actores viales, incluyendo a los más vulnerables: peatones, ciclistas, y motociclistas [2]. Para mejorar la comprensión sobre la seguridad vial, se pretende evaluar el impacto de estos factores a través de modelos y de las posibles modificaciones ejecutadas, haciendo necesario adquirir precisa y eficientemente, la información del tráfico y otros eventos de interés. En seguridad vial, una de las técnicas más usadas para evaluar el riesgo se basa en un análisis del historial de siniestros por períodos extensos (5-10 años). Los siniestros viales son eventos difíciles de apreciar por su carácter instantáneo y efímero. Por esto, la recolección de la información requiere de un mayor tiempo de observación, y comúnmente esta información no está completa. Una alternativa es el análisis de indicadores sustitutos de seguridad, derivadas del análisis de conflictos de tráfico. Estos conflictos son eventos donde interactúan dos o más actores viales, realizando algún tipo de acción evasiva (frenar o cambiar de carril), para evitar un accidente. Estos eventos son más frecuentes, por lo que requieren un menor tiempo de observación, y proporcionan mayor comprensión de los mecanismos de las colisiones entre los actores viales, sin involucrar vidas [3]. Para mejorar la adquisición de información de tráfico, la ciudad ordenó por mandato del Concejo en 2006, la implementación del Sistema Inteligente de Transporte (SIT). Éste tuvo un impulso en 2010 con la definición de 4 componentes para la primera fase de desarrollo: (a) Centro de Gestión, (b) Detección Electrónica (de infracciones), (c) Semaforización y (d) Paneles Variables. El Centro de Gestión, en funcionamiento desde 2016, cuenta con una plataforma para adquirir, almacenar y observar la información. Cuenta con 350 sensores WIFI/Bluetooth para estimar velocidad, 12 sensores de bicicletas ubicados en ciclovías, 160 sensores de detección de vehículos cubriendo 4 intersecciones de la ciudad, y 100 cámaras de CCTV usadas para monitorear las condiciones del tráfico [4]. Esta infraestructura está en capacidad de medir o estimar diferentes variables de tráfico como flujo vehicular, densidad vehicular, o velocidad, para comprender el comportamiento vial, así como detectar eventos de conflicto y medir indicadores sustitutos de seguridad, de manera automática, más eficiente, y tomar decisiones e implementar soluciones a futuro. Para tener datos encaminados a evaluar de forma más amplia la seguridad vial, la adquisición automática de información del tráfico debe ser simultánea en múltiples puntos de la ciudad, por periodos largos de tiempo, de forma continua, y con precisión. Por esto, diferentes tecnologías han sido implementadas para maximizar la confiabilidad de los datos, que a veces implican minimizar la intervención humana. La visión por computador ha demostrado su efectividad para la adquisición del tráfico utilizando información visual [5,6]. La ubicación de la cámara presenta un gran reto en la adquisición automática, ya que se su instalación se encuentra restringida a las posibilidades físicas, como postes o semáforos, ofreciendo una perspectiva específica, limitando la información disponible. Por ejemplo, para una altura dada, se reducen o eliminan las ocultaciones de vehículos, permitiendo el conteo o estimación de velocidad, pero el campo de observación se reduce, impidiendo la adquisición de otras variables [5,7,8]. Los sistemas actuales permiten la adquisición para la vista sobre la que se entrenaron los algoritmos de detección y seguimiento, pero un cambio en la perspectiva de la escena, cambia su configuración. Por esto, se busca desarrollar un sistema para la adquisición de información del tráfico en diferentes perspectivas, con alta confiabilidad, y de fácil configuración, para la medición de indicadores sustitutos de seguridad [8,9]. El proyecto de Doctorado ha comparado las diferentes técnicas de detección y seguimiento de objetos, basadas en visión por computador e inteligencia artificial (en especial Deep Learning), aplicadas a videos de tráfico en Bogotá, con resultados satisfactorios. Estos métodos son entrenados con muestras de los videos, mejorando su precisión, pero requieren de un hardware de alto desempeño. Este proyecto tiene por objetivo resolver la siguiente pregunta de investigación: ¿Qué indicadores sustitutos de seguridad adquiridos por visión por computador se deben utilizar para proponer una metodología de análisis de riesgos en tráfico urbano? Estado del Arte: Los sistemas de monitoreo por video han sido importantes en los sistemas inteligentes de transporte (ITS), con una arquitectura de 4 niveles: (nivel 1) adquisición de las imágenes, (nivel 2) extracción de los atributos del vehículo, (nivel 3) análisis del comportamiento, y (nivel 4) prestación de servicios. En el nivel 2, se realizan la detección y el seguimiento de actores viales [10]. La detección consiste en la localización e identificación de los objetos de interés en la escena (vehículos, peatones). Las estrategias para la detección se clasifican en las siguientes categorías: sustracción de fondo, apariencia, movimiento, y deep learning. La sustracción de fondo consiste en modelar y eliminar el fondo de la escena para resaltar los objetos en movimiento. Para estimar un modelo de fondo robusto, se utilizan estrategias con métodos estadísticos, por similitud, o redes neuronales, entre otros, que se adapten a la variabilidad de las condiciones de la escena [11]. La detección por apariencia utiliza características geométricas (traslación, rotación, escala), estructurales (puntos, bordes, esquinas), atributos de color, forma, etc., para la detección de objetos (identificación multigrilla de regiones de interés, detección basada en bordes, firma espacial) [12,13,14]. La detección por movimiento requiere de una secuencia de cuadros de video. Se observan los cambios entre cuadros sucesivos, destacando los objetos móviles (diferencia entre cuadros, firma de tiempo, flujo óptico) [15,16,17]. El flujo óptico permite no solo obtener la posición del objeto, sino también estimar su velocidad. Deep learning emplea redes neuronales para la localización y clasificación de los objetos. La Red Neuronal Convolucional Basada en Regiones (R-CNN) genera propuestas de regiones para definir el conjunto de detecciones candidatas, la red neuronal extrae un vector de características de cada región, y se clasifican para cada clase [18]. Faster R-CNN implementa una Red de Propuesta de Regiones (RPN) completamente convolucional, que predice los límites de los objetos y le asigna un valor, generando propuestas de regiones de alta calidad, que se utilizan para la red de detección [19]. Los métodos sin propuesta de regiones aplican una única red neuronal a la imagen completa, dividen la imagen en regiones y predicen cuadros delimitadores y probabilidades para cada región. You Only Look Once (YOLO) toma estos cuadros delimitadores y predice un valor de objeto para cada cuadro usando regresión logística [20]. De manera similar, Single-Shot Multibox Detector (SSD) produce un conjunto de cuadros delimitadores a múltiples escalas [21]. El seguimiento consiste en determinar la localización temporal del objeto en la escena. Es un problema desafiante debido circunstancias presentes en escenas reales, como movimientos repentinos, cambios de apariencia, u oclusiones. Smeulders et al. presenta los métodos de seguimiento más importantes [22]. Los métodos por template matching comparan un modelo del objeto, con un conjunto de candidatos en un nuevo cuadro de video, asignando un valor según la métrica empleada y seleccionando el mayor (Normalized Cross-Correlation, Kanade-Lucas-Tomasi, Kalman Appearance Tracker). Agregando restricciones a la representación del modelo y realizando una optimización, se mejora la velocidad y la robustez ante oclusiones (Tracking by Monte-Carlo Sampling, L1-minimization Tracker) [23,24]. Los métodos por clasificación discriminativa, llamados Tracking-by-detection, construyen el modelo clasificando los píxeles entre objeto y fondo, utilizando diferentes clasificadores (Tracking, Learning, and Detection, Multiple Instance Learning Tracking) [25,26]. El análisis de conflictos de tráfico para analizar el riesgo de tráfico ha ganado interés en la investigación en los últimos años, ayudando a comprender los procesos de causalidad de los siniestros, desarrollando un conjunto de indicadores de seguridad sustitutos. Estos indicadores se clasifican en 4 grupos: temporal, distancia, desaceleración, y otros indicadores [3]. En los indicadores temporales se mide el tiempo restante para que se produzca una colisión, si las condiciones de los vehículos permanecen igual, llamado Time-to-collision [27,28]. El Time headway es el tiempo transcurrido entre dos vehículos que llegan al mismo punto [29], muy similar al Post-Encroachment Time, que mide el tiempo entre la salida de un vehículo "ofensivo" de la zona de conflicto y el ingreso del vehículo con derecho al paso [30,31,32]. Los indicadores de distancia miden la proximidad entre vehículos, considerando la distancia disponible para evitar la colisión. Potential Index for Collision with Urgent Desacceleration y Difference of Space Distance and Stopping Distance tienen en cuenta la reacción de los conductores y la desaceleración [33,34]. Los indicadores de desaceleración miden la capacidad de frenado de los vehículos en una emergencia [35,36,37]. Otros indicadores analizan el comportamiento de un vehículo durante una situación de tráfico para estimar la probabilidad de un accidente [38,39]. Referencias [1] Indicadores Globales - Parque Automotor.http://www.simur.gov.co/documents/10180/118666/Indicadores/8d1a035a-1439-48e6-9f79-85a8a82dfd6d.Accessed:2019-04-10. [2] Anuario de Siniestralidad Vial de Bogotá 2017.http://www.simur.gov.co/documents/10180/120149/Anuario+Siniestralidad+2017/94ba3d75-0896-4e59-80dc-feb4b29cba8c.Accessed: 2019-04-02. [3] S.M. Sohel Mahmud, L. Ferreira, Md. S. Hoque, A. Tavassoli. Application of proximal surrogate indicators for safety evaluation: A review of recent developments and research needs. IATSS Research, 41(4):153 – 163, 2017. [4] Sistema inteligente de transporte - SIT.https://www.movilidadbogota.gov.co/web/sistema_inteligente_de_transporte_aporte_de_movilidad_a_la_transformacin_de_bogot_en_una_smart_city.Accessed: 2019-04-02. [5] L. H. Barrero, L. A. Quintana, A. Sánchez, A. Forero, J. Quiroga, and S. Felknor. Pedestrians’ beliefs about road crossing in Bogotá: questionnaire development. Universitas Psychologica, 12(2):433–444, 2013. [6] N. Buch, S. A. Velastin, J. Orwell. A review of computer vision techniques for the analysis of urban traffic. IEEE Transactions on Intelligent Transportation Systems, 12(3):920–939, 2011. [7] D. R. Magee. Tracking multiple vehicles using foreground, background and motion models. Image and vision Computing, 22(2):143–155, 2004. [8] G. E. Urrego, F. C. Calderón, A. Forero, J. A. Quiroga. Adquisición de variables de tráfico vehicular usando visión por computador. Revista de Ingeniería, (30), 2009. [9] J. Quiroga, N. Romero, C. García, C. Parra. Adquisición de variables de tráfico peatonal utilizando visión por computador. Revista Facultad de Ingeniería, (60):51–61, 2012. [10] B. Tian, B. T. Morris, M. Tang, Y. Liu, Y. Yao, C. Gou, D. Shen, S. Tang. Hierarchical and Networked Vehicle Surveillance in ITS: A Survey. IEEE Transactions on Intelligent Transportation Systems, 18(1):25–48, 2017. [11] T. Bouwmans. Traditional and recent approaches in background modeling for foreground detection: An overview. Computer Science Review, 11-12:31–66, 2014. [12] C. L. Wan, K. W. Dickinson, and T. D. Binnie. A Cost-Effective Image Sensor System for Transport Applications Utilising a Miniature CMOS Single Chip Camera. IFAC Proceedings Volumes, 27(12):151–156, 1994. [13] P. Klausmann, K. Kroschel, D. Willersinn. Performance prediction of vehicle detection algorithms. Pattern Recognition, 32(12):2063–2065, 1999. [14] K. W. Dickinson, C. L. Wan. Road traffic monitoring using the TRIP II system. In Road Traffic Monitoring, Second International Conference on, pages 56–60. IET, 1989. [15] V. Kastrinaki, M. Zervakis, K. Kalaitzakis. A survey of video processing techniques for traffic applications. Image and vision computing, 21(4):359–381, 2003. [16] N. Hoose. Computer image processing in traffic engineering. 1991. [17] B. K. B. Horn and B. G. Schunck. Determining Optical Flow. Artificial Intelligence, 16:185–203, 1981. [18] R. Girshick, J. Donahue, T. Darrell, J. Malik. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation. In 2014 IEEE Conference on Computer Vision and Pattern Recognition, pages 580–587. IEEE, 2014. [19] S. Ren, K. He, R. Girshick, J. Sun. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. IEEE Transactions on Pattern Analysis and Machine Intelligence, 39(6):1137–1149, 2015. [20] J. Redmon, A. Farhadi. YOLO v3: An Incremental Improvement. 2018. [21] W. Liu, D. Anguelov, D. Erhan, C. Szegedy, S. Reed, C.-Y. Fu, A. C. Berg. SSD: Single Shot MultiBox Detector. In European conference on computer vision, pages 21–37. 2016. [22] A. W. M. Smeulders, D. M. Chu, R. Cucchiara, S. Calderara, A. Dehg-han, M. Shah. Visual tracking: An experimental survey. IEEE Transactions on Pattern Analysis and Machine Intelligence, 36(7):1442–1468, 2014. [23] J. Kwon, K. Mu Lee. Tracking of a non-rigid object via patch-based dynamic appearance modeling and adaptive Basin Hopping Monte Carlo sampling. In 2009 IEEE Conference on Computer Vision and Pattern Recognition, pages 1208–1215, 2009. [24] X. Mei, H. Ling. Robust visual tracking using L1 minimization. In 2009 IEEE 12th International Conference on Computer Vision, pages 1436–1443. 2009. [25] Z. Kalal, J. Matas, K. Mikolajczyk. P-N learning: Bootstrapping binary classifiers by structural constraints. In 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pages 49–56. 2010. [26] B. Babenko, M.-H. Yang, S. Belongie. Visual tracking with online Multiple Instance Learning. In 2009 IEEE Conference on Computer Vision and Pattern Recognition, pages 983–990. 2009. [27] C. Hydén. Traffic conflicts technique: state-of-the-art. Traffic safety work with videoprocessing, 37:3–14, 1996. [28] M. M. Minderhoud, P. H. L. Bovy. Extended time-to-collision measures for road traffic safety assessment. Accident Analysis & Prevention, 33(1):89–97, 2001. [29] P. G. Michael, F. C. Leeming, W. O. Dwyer. Headway on urban streets: observational data and an intervention to decrease tailgating. Transportation research part F: traffic psychology and behaviour, 3(2):55–64, 2000. [30] B. L. Allen, B. T. Shin, P. J. Cooper. Analysis of traffic conflicts and collisions. Technical report, 1978. [31] P. J. Cooper. Experience with traffic conflicts in Canada with emphasis on “post encroachment time” techniques. In International calibration study of traffic conflict techniques, pages 75–96. Springer, 1984. [32] P. Songchitruksa, A. Tarko. Practical method for estimating frequency of right-angle collisions at traffic signals. Transportation Research Record: Journal of the Transportation Research Board, (1953):89–97, 2006. [33] Y. Iida, N. Uno, S. Itsubo, M. Suganuma. Traffic conflict analysis and modeling of lane-changing behavior at weaving section. In Proceedings of Infrastructure Planning, volume 24, pages 305–308, 2001. [34] M. Okamura, A. Fukuda, H. Morita, H. Suzuki, M. Nakazawa. Impact evaluation of a driving support system on traffic flow by microscopic traffic simulation. Adv. Transp. Stud, 2011. [35] S. Almqvist, C. Hydén, R. Risser. Use of speed limiters in cars for increased safety and a better environment. Transportation Research Record, (1318), 1991. [36] G. Guido, F. Saccomanno, A. Vitale, V. Astarita, D. Festa. Comparing safety performance measures obtained from video capture data. Journal of Transportation Engineering, 137(7):481–491, 2010. [37] C.-Y. Chan. Defining safety performance measures of driver-assistance systems for intersection left-turn conflicts. In 2006 IEEE Intelligent Vehicles Symposium, pages25–30. 2006. [38] A. E. af Wahlberg. The relation of acceleration force to traffic accident frequency: a pilot study. Transportation Research Part F: Traffic Psychology and Behaviour, 3(1):29–38, 2000. [39] M. Aron, M. B. Biecheler, J. F. Peytavin. Temps intervehiculaires et vitesses: Quelsenjeux de securite sur les routes de normandie? premiere etape: Realisation du recueilde donnees et description des indicateurs. Inrapport sur convention inrets/dscr, 2002.
Estado | Finalizado |
---|---|
Fecha de inicio/Fecha fin | 15/01/20 → 14/07/21 |
Palabras clave
- Vision por computador
Estado del Proyecto
- Sin definir
Financiación de proyectos
- Interna
- Pontificia Universidad Javeriana