Академический Документы
Профессиональный Документы
Культура Документы
1. Введение
В последние годы число пожилых людей, которым требуется помощь или
дополнительный уход, увеличилось, но для найма личного помощника или няни
требуется весомая сумма денег, позволить которую могут далеко не все. Поэтому
возникла необходимость реализовать интеллектуального сервисного робота для
помощи таким людям в повседневной жизни [16]. Такой робот должен иметь набор
датчиков, чтобы получать информацию об окружающей среде. Он также должен
уметь планировать свои действия для выполнения задач [18]. Поэтому он должен
иметь базу данных о той среде, в которой он находится [10].
Для выполнения определенных задач по перемещению объектов необходи-
мо заранее задать определенные действия. Например, задача "найти и принести мне
бутылку воды" требует предварительного знания окружающей среды и выполнения
последовательности команд, представленных на рисунке 1. Хотя это выглядит как
весьма простая задача, она будет очень сложной для выполнения непо-
дготовленным или пожилым человеком, который дистанционно управляет
сервисным роботом. [5].
5. ЗАКЛЮЧЕНИЕ
Статья предлагает и описывает структурированный подход к построению
персонализированной интеллектуальной системы управления сервисными
роботами для помощи пожилым людям. Предложенная система проверяется на
реальном роботе. Интеллектуальное поведение робота позволяет значительно
ускорить выполнение поставленной задаче, поскольку пользователю не требуется
перемещаться по многочисленны меню интерфейса. Вместо этого система в режиме
диалога запрашивает от пользователя необходимого взаимодействия. Пользователь
вмешивается в процесс только когда это действительно необходимо. Результаты
экспериментов показали, что такая система значительно улучшит пользовательский
опыт в использовании сервисного робота. Любое улучшение и облегчение этого
опыта имеет большое значение, когда такая роботизированная система используется
для улучшения качества жизни пожилых людей.
БЛАГОДАРНОСТЬ
Исследование, представленное в данной статье, было частично поддержано
болгарским Национальным Научным Фондом в соответствии с контрактом № DN
07/23 - 15.12.2016 «Телеуправляемые Сервисные Роботы для Увеличения Качества
жизни Пожилых людей и Инвалидов» и контракта № KP-06-M27/1-04.12.2018
«Научные исследования Инновационных, Интеллектуальных Информационно-
коммуникационных технологий для Контроля Сервисных Роботов». Работа была
частично поддержана Министерством образования и науки Болгарии в рамках
Национальной исследовательской программы "Молодые ученые и аспиранты",
утвержденной DCM # 577 / 17.08.2018.
СПИСОК ИСТОЧНИКОВ
1. Alexander Buyval, Ilya Afanasyev, and Evgeni Magid "Comparative analysis
of ROS-based monocular SLAM methods for indoor navigation", Proc. SPIE 10341, Ninth
International Conference on Machine Vision (ICMV 2016), 103411K (17 March 2017)
2. Babic, M., Hluchy, L., Krammer, P., Matovic, B., Kumar, R., Kovac, P. New
method for constructing a visibility graph-network in 3D space and a new hybrid system
of modeling. (2017) Computing and Informatics, 36 (5), pp.
3. 1107-1126.
4. Cireşan, Dan, Ueli Meier, and Jürgen Schmidhuber. "Multicolumn deep
neural networks for image classification." arXiv preprint arXiv:1202.2745 (2012).
5. D. Xu, Y. Chen, C. Lin, X. Kong and X. Wu, "Real-time dynamic gesture
recognition system based on depth perception for robot navigation," 2012 IEEE
International Conference on Robotics and Biomimetics (ROBIO), Guangzhou, 2012, pp.
689-694.
6. Guennouni, Souhail, Ali Ahaitouf, and Anass Mansouri. "Multiple object
detection using OpenCV on an embedded platform." In 2014 Third IEEE International
Colloquium in Information Science and Technology (CIST), pp. 374-377. IEEE, 2014.
7. Kazemi, Moslem, Jean-Sebastien Valois, J. Andrew Bagnell, and Nancy
Pollard. "Robust object grasping using force compliant motion primitives." Robotics:
Science and Systems (RSS)(MIT Press, Sydney, Australia, 2012) (2012): 177-185.
8. Lee, Dae Sic, Gi Hyun Lim, and Il Hong Suh. "Robust Object Instance
Registration to Robot-centered Knowledge Framework." (2009).
9. Liang, Ming, and Xiaolin Hu. "Recurrent convolutional neural network for
object recognition." In Proceedings of the IEEE conference on computer vision and pattern
recognition, pp. 3367-3375. 2015.
10. Lim, Gi Hyun, and Il Hong Suh. "Robust robot knowledge instantiation for
intelligent service robots." Intelligent Service Robotics 3, no. 2 (2010): 115-123.
11. Malakov, I. & Zaharinov, V. Interactive Software System for Multicriteria
Choosing of the Structural Variant of Complex Technical Systems. Annals of DAAAM
for
12. 2012 & Proceedings of the 23rd International DAAAM
13. Symposium, ISBN 978-3-901509-91-9, ISSN 2304-
14. 1382, pp. 0199 - 0204, Editor Katalinic, B., Published by DAAAM
International, Vienna, Austria 2012.
15. Pulli, Kari, Anatoly Baksheev, Kirill Kornyakov, and Victor Eruhimov.
"Real-time computer vision with OpenCV." Communications of the ACM 55, no. 6
(2012): 61-69.
16. P. Rashidi and A. Mihailidis, "A Survey on AmbientAssisted Living Tools
for Older Adults," in IEEE Journal of Biomedical and Health Informatics, vol. 17, no. 3,
pp. 579-590, May 2013.
17. Reid, A. Cann, C. Meiklejohn, L. Poli, A. Boeing and T. Braunl, "Cooperative
multi-robot navigation, exploration, mapping and object detection with ROS," 2013 IEEE
Intelligent Vehicles Symposium (IV), Gold Coast, QLD, 2013, pp. 1083-1088.
18. Saso Koceski, Natasa Koceska, Evaluation of an Assistive Telepresence
Robot for Elderly Healthcare, Journal of Medical Systems, 2016, Volume 40:121
19. Ilchev, R. Andreev, Z. Ilcheva, HybridNET Management and Sensor Data
Acquisition System, in IoT 2017: 7th International Conference on the Internet of Things,
Linz, Austria, October 22-25, 2017, pp. 32:1 - 32:2, ACM Digital Library.
20. Vavrek, J., Fecilak, P., Juhar, J., Cizmar, A. Classification of broadcast news
audio data employing binary decision architecture. (2017) Computing and Informatics, 36
(4), pp. 857-886.
21. Yang, Kailun, Kaiwei Wang, Weijian Hu, and Jian Bai. "Expanding the
detection of traversable area with RealSense for the visually impaired." Sensors 16, no. 11
(2016): 1954.