Fusión Sensorial No Lineal Basada en Regresión de Soporte Vectorial para la Estimación de Distancia en Robótica Móvil

Nonlinear Sensor Fusion Based on Support Vector Regression for Distance Estimation in Mobile Robotics

Contenido principal del artículo

Santiago Alexander Durán-Puentes
Gustavo Alonso Acosta-Amaya
Deimer Andres Miranda-Montoya
Jovani Alberto Jimenez-Builes

Resumen

La estimación precisa de distancias es un desafío crítico en robótica móvil, especialmente en entornos dinámicos donde la incertidumbre de los sensores puede afectar la navegación y la evasión de obstáculos. Este artículo propone un método de fusión sensorial no lineal basado en Regresión de Soporte Vectorial (SVR) para mejorar la estimación de distancias, utilizando un sistema de bajo costo compuesto por una cámara Logitech C270 con marcadores fiduciales ArUco, un sensor ultrasónico HC-SR04, un microcontrolador ESP32 y el middleware ROS2. La configuración experimental recopiló datos de 20 a 400 cm en intervalos de 10 cm, incorporando oclusiones controladas para simular condiciones reales. El modelo SVR, optimizado con un núcleo de función de base radial (C=10, gamma=0.5, epsilon=0.5), fusiona datos visuales y acústicos para mejorar la robustez y precisión. Los resultados de las pruebas de validación (30-200 cm) muestran que las estimaciones de distancia fusionadas alcanzan un error absoluto promedio de 1.25 cm en condiciones normales, con un pico de error cuadrático medio de 35.44 cm² a 30 cm, indicando limitaciones en rangos cortos. Bajo oclusión, la fusión reduce los errores de los sensores individuales (por ejemplo, 19.81 cm para el sonar y 35.08 cm para la cámara a 100 cm) a un promedio de 32.49 cm. Las principales contribuciones incluyen un enfoque de fusión económico que incrementa la robustez en condiciones adversas y supera los métodos de un solo sensor. Futuras investigaciones explorarán técnicas de aprendizaje profundo y sensores adicionales para abordar los desafíos en rangos cortos y oclusiones, siguiendo tendencias en integración multimodal de sensores para navegación autónoma.

Descargas

Los datos de descargas todavía no están disponibles.

Detalles del artículo

Citaciones

Crossref
Scopus
Europe PMC

Referencias (VER)

Alatise, M.; Hancke, G. (2020). A review on challenges of autonomous mobile robot and sensor fusion methods. IEEE Access, 8, 39830-39846. https://doi.org/10.1109/ACCESS.2020.2975643

Andronie, M.; Lăzăroiu, G.; Iatagan, M.; Hurloiu, I.; Ștefănescu, R.; Dijmărescu, A.; Dijmărescu, I. (2023). Big data mana-gement algorithms, deep learning-based object detection technologies, and geospatial simulation and sensor fusion tools in the internet of robotic things. ISPRS International Journal of Geo-Information, 12(35). https://doi.org/10.3390/ijgi12020035

Barreto, A.; Gómez, A.; Escobedo, J.; Cuan, E.; Cruz, S. (2022). Sensor data fusion for a mobile robot using neural net-works. Sensors, 22(1), 305. https://doi.org/10.3390/s22010305

Duan, S.; Shi, Q.; Wu, J. (2022). Multimodal sensors and ML-based data fusion for advanced robots. Advanced Intelligent Systems, 4(12), 2200213. https://doi.org/10.1002/aisy.202200213

Fayyad, J.; Jaradat, M.; Gruyer, D.; Najjaran, H. (2020). Deep learning sensor fusion for autonomous vehicle perception and localization: A review. Sensors, 20(15), 4220. https://doi.org/10.3390/s20154220

Hafez, O.; Joerger, M.; Spenko, M. (2024). How safe is particle filtering-based localization for mobile robots? An inte-grity monitoring approach. IEEE Transactions on Robotics, 40, 3372–3387. https://doi.org/10.1109/TRO.2024.3420798

Housein, A. A.; Xingyu, G.; Li, W.; Huang, Y. (2022). Extended Kalman filter sensor fusion in practice for mobile robot localization. International Journal of Advanced Computer Science and Applications, 13(2), 33-38. https://doi.org/10.14569/IJACSA.2022.0130204

Kaczmarek, A.; Rohm, W.; Klingbeil, L.; Tchórzewski, J. (2022). Experimental 2D extended Kalman filter sensor fusion for low-cost GNSS/IMU/Odometers precise positioning system. Measurement, 193, 110963. https://doi.org/10.1016/j.measurement.2022.110963

Krishnamurthi, R.; Kumar, A.; Gopinathan, D.; Nayyar, A.; Qureshi, B. (2020). An overview of IoT sensor data proces-sing, fusion, and analysis techniques. Sensors, 20(21), 6076. https://doi.org/10.3390/s20216076

Kumari, N.; Kulkarni, R.; Ahmed, M.; Kumar, N. (2021). Use of Kalman filter and its variants in state estimation: A re-view. En: Artificial Intelligence for a Sustainable Industry 4.0 (pp. 213-230). https://doi.org/10.1007/978-3-030-77070-9_13

Li, C.; Fahmy, A.; Sienz, J. (2019). An augmented reality based human-robot interaction interface using Kalman filter sensor fusion. Sensors, 19(20), 4586. https://doi.org/10.3390/s19204586

Li, Y.; He, L.; Zhang, X.; Zhu, L.; Zhang, H.; Guan, Y. (2019). Multi-sensor fusion localization of indoor mobile robot. En: IEEE International Conference on Real-time Computing and Robotics (RCAR) (pp. 481-486). https://doi.org/10.1109/RCAR47638.2019.9044006

Lv, M.; Wei, H.; Fu, X.; Wang, W.; Zhou, D. (2022). A loosely coupled extended Kalman filter algorithm for agricultural scene-based multi-sensor fusion. Frontiers in Plant Science, 13, 849260. https://doi.org/10.3389/fpls.2022.849260

Moreira, A.; Costa, P.; Lima, J. (2020). New approach for beacons based mobile robot localization using Kalman filters. Procedia Manufacturing, 51, 512-519. https://doi.org/10.1016/j.promfg.2020.10.072

Mráz, E.; Trizuljak, A.; Rajchl, M.; Sedláček, M.; Štec, F.; Stanko, J.; Rodina, J. (2024). Multi-sensor fusion for robust in-door localization of industrial UAVs using particle filter. Journal of Electrical Engineering, 75(4), 304-316. https://doi.org/10.2478/jee-2024-0037

Oliveira, R.; Ott, L.; Guizilini, V.; Ramos, F. (2020). Bayesian optimisation for safe navigation under localisation uncer-tainty. En: Robotics Research: The 18th International Symposium ISRR (pp. 489-504). Springer International Publis-hing. https://doi.org/10.48550/arXiv.1709.02169

Ortega, J.; Gutiérrez, O.; Aguirre, J. (2022). Simulación del control de un robot móvil tipo Rover basado en fusión de sensores mediante filtro de partículas. Pädi Boletín Científico de Ciencias Básicas e Ingenierías del ICBI, 10, 100-106. https://doi.org/10.29057/icbi.v10iEspecial6.9366

Sander, J.; Beyerer, J. (2013). Bayesian fusion: Modeling and application. En: 2013 Workshop on Sensor Data Fusion: Trends, Solutions, Applications (SDF) (pp. 1-6). IEEE. https://doi.org/10.1109/SDF.2013.6698254

Shaukat, N.; Ali, A.; Javed, M.; Moinuddin, M.; Otero, P. (2021). Multi-sensor fusion for underwater vehicle localization by augmentation of RBF neural network and error-state Kalman filter. Sensors, 21(4), 1149. https://doi.org/10.3390/s21041149

Shen, Y.; Liu, H.; Liu, X.; Zhou, W.; Zhou, C.; Chen, Y. (2024). Localization through particle filter powered neural network estimated monocular camera poses. arXiv preprint, arXiv:2404.17685. https://doi.org/10.48550/arXiv.2404.17685

Tang, Q.; Liang, J.; Zhu, F. (2023). A comparative review on multi-modal sensors fusion based on deep learning. Signal Processing, 213, 109165. https://doi.org/10.1016/j.sigpro.2023.109165

Urrea, C.; Agramonte, R. (2021). Kalman filter: Historical overview and review of its use in robotics 60 years after its creation. Journal of Sensors, 2021(1), 9674015. https://doi.org/10.1109/MSP.2025.3569395

Yeong, D.; Velasco, G.; Barry, J.; Walsh, J. (2021). Sensor and sensor fusion technology in autonomous vehicles: A re-view. Sensors, 21(6), 2140. https://doi.org/10.3390/s21062140