6. Podsumowanie i wnioski
6.3 Kierunki dalszych prac
Przedstawione wnioski praktyczne i ogólne wskazują na celowość kontynuacji prac nad rozwojem rozwiązania, m.in. na potrzeby interaktywnego szkolenia z zakresu bardziej złożonych zadań proceduralnych (np. procesu wkręcania śruby przy użyciu klucza płaskiego).
Prace rozwojowe będą determinować zmiany w konstrukcji robota (m.in. zmniejszenie długości ramion, usztywnienie ramy mocowania napędów). Konieczna będzie także modyfikacja efektora końcowego, polegająca na dodaniu małego silnika prądu stałego
Strona | 134 z przekładnią oraz enkodera, w celu symulowania rzeczywistego oporu, który powinien być odczuwany przez użytkownika w trakcie symulacji procesu wkręcania śruby.
Przewiduje się także dodanie nowych funkcji w aplikacji VR, które mogą podnieść skuteczność treningu:
- generowanie podpowiedzi (na żądanie użytkownika) dotyczących odpowiedniej sekwencji montażu wybranych części (np. graficzne podświetlenie części, którą należy wybrać).
- generowanie graficznej wskazówki ilustrującej odpowiednią trajektorię ruchu (w przypadku montażu części w trudno dostępnym miejscu), polegającej na tym, że użytkownik przemieszcza wirtualny obiekt wzdłuż wyświetlanej ścieżki, a w sytuacji popełnienia błędu (zejście z linii trajektorii) emitowany jest sygnał dźwiękowy.
Strona | 135
LITERATURA
1. Bhatti A., Khoo Y., Bing C., Douglas A.J., Nahavandi S., Zhou M., Haptically enabled interactive virtual reality prototype for general assembly, Proceedings of the World Automation Congress WAC 08, str.: 1–6, 2008
2. Biocca, F., Delaney B., Immersive virtual reality technology. In F. Biocca & M. R. Levy (Eds.), Communication in the age of virtual reality, str.: 57-124, 1995
3. Brettel M., Friederichsen N., Keller M., Rosenberg M., How Virtualization, Decentralization and Network Building Change the Manufacturing Landscape: An Industry 4.0 Perspective, International Journal of Mechanical, Aerospace, Industrial, Mechatronic and Manufacturing Engineering, Vol.: 8, No: 1, 2014
4. Brenosa J., Cerrada P., Ferre M., Aracil R., Design Of An Ergonomic Three-finger Haptic Device For Advanced Robotic Hands Control, IEEE World Haptics Conference, str.: 257-261, 2011
5. Brooks Jr. F., Walkthrough - A Dynamic Graphics System for Simulating Virtual Buildings, Proceedings SIGGRAPH Workshop on Interactive 3D Graphics, 1986 6. de Bruin E.D., Schoene D., Pichierri G., Smith S.T., Use of virtual reality technique for
the training of motor control in the elderly, Zeitschrift für Gerontologie und Geriatrie 4, 2010
7. Bryson S., Virtual reality: a definition history, NASA Ames Research Center, Moffett Field, 1999
8. Buń P., Wichniarek R., Górski F., Grajewski D., Zawadzki P., Hamrol A., Possibilities and Determinants of Using Low-Cost Devices in Virtual Education Applications, EURASIA Journal of Mathematics Science and Technology Education, Vol.: 13, Issue:
2, str.: 381-394, 2017
9. Buń P., Górski F., Grajewski D., Wichniarek R., Zawadzki P., Low-Cost devices used in Virtual Reality exposure therapy, ICTE 2016, Procedia Computer Science, Vol.: 104, str.: 445-451, 2017
10. Burdea G.C., Coiffet P., Virtual Reality Technology, Hoboken, NJ: John Wiley & Sons, Inc. 2nd ed., 2003
11. Cameirao M. S., Bermúdez Badia S., Duarte E., Frisoli A., Verschure P. F.M.J., The Combined Impact of Virtual Reality Neurorehabilitation and Its Interfaces on Upper, Stroke, Vol.: 43, str.: 2720-2728, 2012
12. Chang A., O'Modhrain S., Jacob R., Gunther E., Ishii H., ComTouch: design of a vibrotactile communication device, Proceedings of the conference on Designing Interactive Systems: processes, practices, methods, and techniques, str.: 312-320, 2002 13. Cheng R., Dig this: I operated a giant excavator from 2,500km away, CNET Magazine, https://www.cnet.com/au/news/i-operated-a-giant-excavator-from-2500km-away-and-it-was-trippy/, 2015
14. Cichy Ł., Już w 2018 roku utoniemy w Internecie Rzeczy, Computerworld – Magazyn IT, https://www.computerworld.pl/news/Juz-w-2018-roku-utoniemy-w-Internecie-Rzeczy,394851.html, 2014
15. Coles T.R., Investigating Augmented Reality Visio-Haptic Techniques for Medical Training, Bangor University, 2011
Strona | 136 16. Dinis F.M., Guimaraes A.S., Carvalho B.R., Martins J.P.P., Virtual and Augmented
Reality game-based applications to Civil Engineering Education, IEEE Global Engineering Education Conference (EDUCON2017), str.: 1683-1688, 2017
17. Elliman J., Loizou M., Loizides F., Virtual Reality Simulation Training for Student Nurse Education, IEEE 8th International Conference on Games And Virtual Worlds for Serious Applications (VS-GAMES), Book Series: International Conference on Games and Virtual Worlds for Serious Applications, 2016
18. Färber M., Hummel F., Gerloff C., Handels H., Virtual Reality Simulator for the Training of Lumbar Punctures, Methods Inf Med., Vol.: 48, Issue: 5, str.:493-501, 2009 19. Feldman V., Jushchyshyn N., Wagner M.G., Reconstructing Dreadnoughtus Schrani:
A Cinematic Virtual Reality Use Case in Paleontology Education, EDULEARN16: 8th International Conference on Education and New Learning Technologies, Book Series:
EDULEARN Proceedings, str.: 5139-5147, 2016
20. Foster P., Burton A., Virtual reality in improving mining ergonomics, The Journal of The South African Institute of Mining and Metallurgy, str.: 129-134, 2004
21. Girone M., Burdea G., Bouzit M., Popescu V., Deutsch J.E., Orthopedic rehabilitation using the "Rutgers ankle" interface, Stud Health Technol Inf., Vol.: 70, str.: 89-95, 2000 22. Grabowski A., Wykorzystanie współczesnych technik rzeczywistości wirtualnej i
rozszerzonej do szkolenia pracowników, Bezpieczeństwo pracy, 2012
23. Grunewald S.J., Tokyo Tech Students Design a Prototype for an Interactive Mixed Reality Design Tool, The Voice of 3D Printing and Additive Manufacturing portal, https://3dprint.com/116948/tokyo-tech-mixed-reality/, 2016
24. Gonzales C., Ferre M., Saltaren R., Barrio J., Aracil R., Ibarra J.M., Ergonomic and mathematical approach to wire-driven parallel haptic interfaces, EuroHaptics 2006 25. Gonzalez-Badillo G., Medellín-Castillo H.I., Limb T., Development of a haptic virtual
reality system for assembly planning and Evaluation, Iberoamerican Conference on Electronics Engineering and Computer Science, 2013
26. Górski F., Buń P., Wichniarek R., Zawadzki P., Hamrol A., Effective Design of Educational Virtual Reality Applications for Medicine using Knowledge-Engineering Techniques, EURASIA Journal of Mathematics Science and Technology Education, Vol.: 13, Issue: 2, str.: 395-416, DOI: 10.12973/eurasia.2017.00623a, 2017
27. Górski F., Buń P., Wichniarek R., Zawadzki P., Hamrol A., Design and Implementation of a Complex Virtual Reality System for Product Design with Active Participation of End User, Advances in Intelligent Systems and Computing, Vol.: 492, str.: 31-43, DOI:
10.1007/978-3-319-41935-0_4, 2016
28. Górski F., Buń P., Wichniarek R., Zawadzki P., Hamrol A., Immersive City Bus Configuration System for Marketing and Sales Education, Procedia Computer Science, vol: 75, s.137-146, doi:10.1016/j.procs.2015.12.230, 2015
29. Górski F., Wichniarek R., Kuczko W., Zawadzki P., Buń P., Influence of Marker Arrangement on Positioning Accuracy of Objects in a Virtual Environment, Advances in Science and Technology-Research Journal, Vol.: 9, Issue: 28, str.: 112-119, 2015 30. Górski F., Hamrol A., Grajewski D., Zawadzki P., Integracja technik wirtualnej
rzeczywistości i wytwarzania przyrostowego – hybrydowe podejście do rozwoju wyrobu. Cz. 1, Mechanik, nr 3, s. 173-176, Cz. 2, Mechanik, nr 4, s. 266-270, 2013
Strona | 137 31. Grajewski D., Górski F., Rybarczyk D., Owczarek P., Milecki A., Buń P., Use of Delta
Robot as an Active Touch Device in Immersive Case Scenarios, ICTE 2016, Procedia Computer Science, Vol.: 104, str.: 485-492, 2017
32. Grajewski D., Górski F., Hamrol A., Zawadzki P., Immersive and Haptic Educational Simulations of Assembly Workplace Conditions, Procedia Computer Science, vol: 75, s.359-368, doi:10.1016/j.procs.2015.12.258, 2015
33. Grajewski D., Diakun J., Wichniarek R., Dostatni E., Buń P., Górski F., Karwasz A., Improving the Skills and Knowledge of Future Designers in the Field of Ecodesign using Virtual Reality Technologies, Procedia Computer Science, vol: 75, s.348-358, 2015 34. Grajewski D., Górski F., Zawadzki P., Hamrol A., Application of Virtual Reality
Techniques in Design of Ergonomic Manufacturing Workplaces, Procedia Computer Science Journal, Volume 25, Pages 289–301, 2013
35. Gupta, R., Whitney, D. E. & Zeltzer, D., Prototyping and design for assembly analysis using multimodal virtual environments, Computer-Aided Design, Vol.: 29, Issue: 8, str.: 585–597, 1997
36. Hamrol A., Górski F., Grajewski D., Zawadzki P., Virtual 3D Atlas of a Human Body – Development of an Educational Medical Software Application, Procedia Computer Science Journal, Vol.: 25, str.: 302–314, 2013
37. Harley D., Tarun A.P., Germinario D., Mazalek A., Tangible VR: Diegetic Tangible Objects for Virtual Reality Narratives, DIS 2017 Conference Paper, str.: 1253-1263, DOI: 10.1145/3064663.3064680, 2017
38. Honczarenko J., Roboty przemysłowe: budowa i zastosowanie, ISBN: 978-83-204-3578-8, Warszawa: Wydawnictwa Naukowo-Techniczne, 2009
39. Hrast M., Gorenc S., Berlec T., Starbek M., Virtual Factory - The Reality of The Present, SOR'11 Proceedings, str.: 233-238, 2011
40. Ishii H., Tangible User Interfaces, CHI 2006 workshop paper, 2006
41. Januszka M., Projektowanie ergonomiczne z zastosowaniem technik poszerzonej rzeczywistości, XI Forum Inżynierskiego ProCAx, 2012
42. Jayaram, S., Wang, Y., Jayaram, U., Lyons, K., Hart, P., Vade: A virtual assembly design environment, IEEE Computer Graphics and Applications, str.: 44–50, 1999 43. Jimeno A., Puerta A., State of the art of the virtual reality applied to design and
manufacturing processes, Intern. Journal of Advanced Manufacturing Technology, Vol.: 33, Issue: 9-10, str.: 866-874, DOI: 10.1007/s00170-006-0534-2, 2007
44. Kaklanis N., Moschonas P., Mousatakas K., Tzovaras D., Virtual user models for the elderly and disabled for automatic simulated accessibility and ergonomy evaluation of designs, Universal Access in the Inform. Society, Vol.: 12, Issue: 4, str. 403-425, 2013 45. Kneist W., Huber T., Paschold M., Lang H., 3D Virtual Reality Laparoscopic Simulation in Surgical Education Results of a Pilot Study, Zentralblatt fur Chirurgie, Vol.: 141, Issue: 3, str.: 297-301, DOI: 10.1055/s-0033-1350609, 2016
46. Konieczny R. , Kasica M., Kowalski M, Grajewski D., Visualization Of The Work Stand Environment Conditions Using Virtual Reality Techniques, C2I 2008 International Conference on Integrated Engineering, 2008
47. Krzyżanowski P., Przemysł 4.0 – rewolucja przemysłowa rozgrywa się na naszych oczach, Komputer Świat, 2017
Strona | 138 48. Maleshkov S., Katicic J., Stojanova P., Bachvarov A. G., Design-by-the-Customer
through Virtual Reality, Advanced Research in Virtual and Rapid Prototyping, Proceedings of VR@P4, 2009
49. Mafi R., Sirouspour S., Mahdavikhah B., Moody B., Elizeh K., Kinsman A., Nicolici N., A Parallel Computing Platform for Real-Time Haptic Interaction with Deformable Bodies, Haptics, IEEE Transactions, Vol.: 3, sr.: 211 – 223, 2010
50. McDermott, S. D., Bras, B., Development of a haptically enabled dis/re-assembly simulation environment, Proceedings of DETC’99: ASME Design Engineering Technical Conferences, 1999
51. Menck N., Yang X., Weidig C., Winkes P., Lauer C., Hagen H., Hamann B., Aurich J.C., Collaborative Factory Planning in Virtual Reality, Book Series: Procedia CIRP, Vol.: 3, str.: 317-322, DOI: 10.1016/j.procir.2012.07.055, 2012
52. Mleko A., Kotliński T., Interfejsy haptyczne i force feedback, Informatyka Stosowana EAIiE AGH, Kraków, 2008
53. Mujber T.S., Szecsi T., Hashmi M.S.J., Virtual reality applications in manufacturing process simulation, Journal of Materials Processing Technology, Vol.: 155, str.: 1834-1838, DOI: 10.1016/j.jmatprotec.2004.04.401, 2004
54. Nanu A., Titieni A., Nedelcu M., Nedelcu F., Sarbu C., Virtual Reality Techniques for Artistic Education, INTED2014: 8th International Technology, Education and Development Conference, Book Series: INTED Proceedings, str.: 6624-6633, 2014 55. Nosek K., Interfejsy dotykowe. Technologia haptyczna, Internet 2013, dostęp:
27.05.2013, http://wierzba.wzks.uj.edu.pl/~nosek/dokumenty/haptic.rtf
56. Okulicz K., Virtual reality-based approach to manufacturing process planning, International Journal of Production Research, Vol.: 42, Issue: 17, str.: 3493-3504, DOI:
10.1080/00207540410001699426, 2004
57. Ong S.K., Nee A.Y.C., Virtual and Augmented Reality Applications in Manufacturing, Springer, 2004
58. Pająk E., Dudziak A., Górski F., Wichniarek R., Techniki przyrostowe i wirtualna rzeczywistość w procesach przygotowania produkcji, ISBN: 978-83-86912-56-8, 2011 59. Panait L., Akkary E., Bell R. L., Roberts K. E., Dudrick S. J., Duffy A. J., The role of
haptic feedback in laparoscopic simulation training, Journal of Surgical Research, Vol.:
156, str.: 312-316, 2009
60. Pandilov Z., Milecki A., Nowak A., Górski F., Grajewski D., Ciglar D., Mulc T., Klaic M., Virtual Modelling and Simulation of a CNC machine feed drive system, Transactions of Famena, Vol.: 39, Issue: 4, str.: 37-54, 2016
61. Pangaro G., Maynes-Aminzade D., Ishii H., The actuated workbench: computer-controlled actuation in tabletop tangible interfaces, Proceedings of the 15th annual ACM symposium on User interface software and technology, str.: 181–190, 2002 62. Pezzementi Z., Ursu D., Misra S., Okamura A., Modeling realistic tool-tissue
interactions with haptic feedback: A learning-based method, Symposium on Haptic interfaces for virtual environment and teleoperator systems, str.: 209–215, 2008
63. Postel J., User Datagram Protocol, STD 6, RFC 768, DOI: 10.17487/RFC0768, 1980
Strona | 139 64. Ras, E., Maquil V., Foulonneau M., Latour T., Using tangible user interfaces for
technology-based assessment – Advantages and challenges, Computer Assisted Assessment CAA 2012, 2012
65. Ritchie, J. M., Lim, T., Sung, R. S., Corney, J. R. & Rea, H., The analysis of design and manufacturing tasks using haptic and immersive VR: Some case studies, Product Engineering, Vol.: 5, str.: 507–522, 2008
66. Robles De La Torre G., Principles of Haptic Perception in Virtual Environments, Human Haptic Perception: Basics and Applications, 2008
67. Rodriguez J., Gutiérrez T., Sánchez E.J., Casado S., Aguinaga I., Training of Procedural Tasks Through the Use of Virtual Reality and Direct Aids, Virtual Reality and Environments, ISBN 978-953-51-0579-4, DOI: 10.5772/36650, 2012
68. Rosenfeld D., Zawadzki M., Sudol J., Perlin K., Physical Objects as Bidirectional User Interface Elements, Emerging Technologies, IEEE Computer Graphics and Applications, str.: 44-49, 2004
69. Sarzyński A., Czujniki tensometryczne – czyli co o pomiarach siły powinien wiedzieć automatyk, Automatyka B2B - portal branżowy, https://automatykab2b.pl, 2010 70. Schneider B., Jermann P., Zufferey G., Dillenbourg P., Benefits of a Tangible Interface
for Collaborative Learning and Interaction, IEEE Transactions on Learning Technologies, Vol. 4, No. 3, str.: 222-232, 2011
71. Seth, A., Su, H.-J. & Vance, J. M., Development of a dual-handed haptic assembly system: Sharp, Journal of Computing and Information Science in Engineering 8, 2008 72. Seth A., Smith S.S., Shelley M., Jiang Q., A Low Cost Virtual Reality Human Computer
Interface for CAD Model Manipulation, Engineering Design Graphics Journal, str.31-38, 2005
73. Szymański Z., Napierała J., Węcławek J., Mechatroniczny manipulator układów sterowania wyposażonych w pulpit sterowniczy, Napędy i Sterowanie, Vol.: 6, 2013 74. Ullmer B., Ishii, H., The metaDESK: Models and Prototypes for Tangible User
Interfaces, Symposium on User Interface Software and Technology - UIST 97, ACM Press, str.: 223-232, 1997
75. Ullrich S., Grottke O., Rossaint R., Staat M., Deserno T. M., Kuhlen T., Virtual Needle Simulation with Haptics for Regional Anaesthesia, Omni, Vol.:3, Issue: 5, 2010
76. Wan, H., Gao, S., Peng, Q., Dai, G. & Zhang, F., Mivas: A multi-modal immersive virtual assembly system, Proceedings of DETC’04, 2004
77. Weiss M., Schwarz F., Jakubowski S., Borchers J., Madgets: actuating widgets on interactive tabletops, Proceedings of the 23nd annual ACM symposium on User interface software and technology, str.: 293–302, 2010
78. Weiss, Z., Konieczny, R., Diakun, J., Grajewski, D., Kowalski, M., Integrated Design at VIDA Centre, 19th CIRP Design Conference Cranfield, ISBN: 978-0-9557436-4-1, str.: 40-45, 2009
79. Weiss Z., Ciszak O., Kasica M., New approach to assembly process visualization at VIDA centre, Virtual Design and Automation (praca zbiorowa pod red. Z. Weiss), 2008 80. Weiss Z., Kasica M., Kowalski M., Rzeczywistość wirtualna w projektowaniu wyrobów,
MACH-TOOL 2005, „Innowacyjne technologie w budowie maszyn”, 2005
81. Welch G., Foxlin, E., Motion tracking: No silver bullet, but a respectable arsenal, IEEE
Strona | 140 Computer Graphics and Applic., Vol.: 22, str.: 24-38. doi:10.1109/MCG.2002.1046626, 2002
82. Whitman L.E., Jorgensen M., Hathiyari K., Malzahn D., Virtual Reality: Its Usefulness For Ergonomic Analysis, Proceedings of the 2004 Winter Simulation Conference, 2004 83. Whyte J., Bouchlaghem N., Thorpe A., McCaffer R., From CAD to Virtual Reality:
modelling approaches, data exchange and interactive 3D building design tools, Automation in Construction, Vol.: 10, Issue: 1, str. 43-55, 2000
84. Wyleżoł M., Zastosowanie metod haptycznych w modelowaniu i analizach inżynierskich, VIII Forum Inżynierskiego ProCAx, MECHANIK nr 11, 2009
85. Zhang L., Grosdemouge C., Arikatla V. S., Ahn W., Sankaranarayanan G., De S., Jones D., Schwaitzberg S., Cao C.G.L., The Added Value of Virtual Reality Technology and Force Feedback for Surgical Training Simulators, Work: A Journal of Prevention, Assessment and Rehabilitation, Vol.: 41, Supplement 1, 2012
86. Zhaoliang D., Zhiyong,Y., Xiangyun, L., Weixin, S., Jianhui Z., 3D tracking and position of surgical instruments in virtual surgery simulation, Journal of Multimedia, Vol.: 6, str.: 502-509. doi:10.4304/jmm.6.6.502-509, 2011
87. Zielinski D.J., Nankivil D., Kopper R., Specimen Box: A tangible interaction technique for world-fixed virtual reality displays, 2017 IEEE Symposium on 3D User Interfaces, DOI: 10.1109/3DUI.2017.7893317, 2017
Strony internetowe:
www.3dsign.biz - (dostęp na dzień 11.06.2017) www.5dt.com - (dostęp na dzień 12.09.2016)
www.cyberglovesystems.com - (dostęp na dzień 12.09.2016) www.cybersickness.info - (dostęp na dzień 11.06.2017) www.dextarobotics.com - (dostęp na dzień 11.06.2017) www.ideum.com - (dostęp na dzień 11.06.2017)
www.invr.pl - (dostęp na dzień 02.02.2017)
www.microchip.com - (dostęp na dzień 12.05.2017) www.microsoft.com - (dostęp na dzień 22.03.2017) www.nvisinc.com - (dostęp na dzień 12.09.2016) www.ps-tech.com - (dostęp na dzień 12.05.2017) www.reactable.com - (dostęp na dzień 15.05.2017) www.systemtech.com - (dostęp na dzień 12.04.2017) www.tatrc.org - (dostęp na dzień 12.09.2016)
www.quanser.com - (dostęp na dzień 12.09.2016)
www.wearabletechnology.london - (dostęp na dzień 12.09.2016) www.vida.put.poznan.pl - (dostęp na dzień 12.11.2016)
www.vrjuggler.org - (dostęp na dzień 12.09.2016) www.zum.put.poznan.pl - (dostęp na dzień 12.09.2016)
Strona | 141
SPIS RYSUNKÓW
Rys.2.1. Kluczowe cechy rzeczywistości wirtualnej [źródło: Burdea i Coiffet 2003] ... 15
Rys.2.2. Komponenty systemu VR [źródło: Pająk i in. 2011] ... 16
Rys.2.3. Przykłady wyświetlaczy osobistych (po lewej hełm wizyjny, po prawej maska wizyjna) [źródło: www.nvisinc.com] ... 17
Rys.2.4. Ekran projekcyjny dla obrazu stereoskopowego [źródło: www.vida.put.poznan.pl] . 18 Rys.2.5. System Polhemus Liberty [źródło: www.vida.put.poznan.pl] ... 19
Rys.2.6. Rękawica 5DT [źródło: www.5dt.com] ... 20
Rys.2.7. Schemat wymiany danych między urządzeniem haptycznym a użytkownikiem [źródło: Górski i in. 2013] ... 21
Rys.2.8. Ramię manipulatora haptycznego SensAble Phantom Premium 3.0/6DOF [źródło: www.vida.put.poznan.pl] ... 21
Rys.2.9. Urządzenie CyberGrasp dostępne w Laboratorium Wirtualnego Projektowania PP [źródło: opracowanie własne] ... 22
Rys.2.10. Podstawowe typy aplikacji VR [źródło: Górski i in. 2013] ... 24
Rys.2.11. Etapy budowy aplikacji VR [źródło: Górski i in. 2013] ... 24
Rys.2.12. Programowanie wizualne (na przykładzie środowiska Unreal Engine) [źródło: www.pm.put.poznan.pl ... 26
Rys.2.13. Porównanie elementów interfejsu 2D (po lewej) oraz 3D (po prawej) [źródło: Górski i in. 2013] ... 26
Rys.2.14. Przykład systemu VR [źródło: Biocca i Delaney 1995] ... 27
Rys.2.15. System Sensorama [źródło: Burdea i Coiffet 2003] ... 30
Rys.2.16. Urządzenie HMD [źródło: Burdea i Coiffet 2003] ... 31
Rys.2.17. System CAVE - schemat projekcji [źródło: Weiss i in. 2008] ... 32
Rys.2.18. System Power Wall [źródło: www.wearabletechnology.london] ... 32
Rys.2.19. The Rutgers Ankle Rehabilitation Interface [źródło: Girone 2000] ... 33
Rys.2.20. Manipulator haptyczny Phantom Premium 3.0 [źródło: Girone 2000] ... 34
Rys.2.21. Hełm wizyjny – Oculus Rift CV1 [źródło:www.oculus.com] ... 35
Rys.2.22. Hełm wizyjny – Samsung Gear VR [źródło:www.samsung.com] ... 35
Rys.2.23. Urządzenie MYO [źródło:www.myo.com] ... 36
Rys.2.24. Microsoft Kinect [źródło:www.microsoft.com] ... 36
Rys.2.25. Biurkowe urządzenie haptyczne [źródło: www.cyberglovesystems.com] ... 37
Rys.2.26. Zastosowania systemów VR w inżynierii produkcji [źródło: opracowanie własne] 38 Rys.2.27. Miejsce wirtualnego wyrobu w cyklu życia produktu [źródło: Pająk i in. 2011] .... 38
Rys.2.28. Wirtualny model pralki [źródło: Weiss i in. 2009] ... 40
Rys.2.29. Próba przeniesienia przedmiotu w VR [źródło: Whitman i in. 2004] ... 42
Strona | 142
Rys.2.30. Symulator skoku na spadochronie [Pająk i in. 2011, www.systemstech.com] ... 43
Rys.2.31. Symulacja nakłucia wirtualną igłą [źródło: Ullrich i in. 2010, www.quanser.com] 44 Rys.2.32. Systemy do symulacji zabiegów laparoskopowych [źródło: www.simbionix.com, www.caehealthcare.com] ... 44
Rys.2.33. Wirtualny symulator maszyny górniczej [źródło: Cheng 2015] ... 45
Rys.2.34. System metaDESK – komponenty systemu oraz reprezentacja fizycznych modeli GUI [źródło: Ullmer i Ishii 1997] ... 47
Rys.2.35. Idea Tangible User Intarfce – TUI [źródło: Ishii 2006] ... 48
Rys.2.36. Urządzenie Actuated Workbench [źródło: Pangaro i in. 2002] ... 48
Rys.2.37. System Madgets - magnetyczne widżety [źródło: Weiss M. i in. 2010] ... 49
Rys.2.38. Planar Manipulator Display [źródło: Rosenfeld i in. 2004] ... 49
Rys.2.39. System reacTABLE [źródło: www.reactable.com] ... 50
Rys.2.40. System MRI – wizualizacja projektów architektonicznych [źródło: www.3dsign.biz] ... 51
Rys.2.41. System MRI – interakcja z obiektami wirtualnymi poprzez manipulację fizycznymi odpowiednikami [źródło: www.3dsign.biz] ... 51
Rys.2.42. Rozpoznawanie przedmiotów na stole dotykowym [źródło: www.pm.put.poznan.pl] ... 52
Rys.2.43. Interaktywny stół dotykowy MT55 Platform Multitouch Table [źródło: www.ideum.com] ... 53
Rys.2.44. Przeniesienie wirtualnego obiektu przy pomocy rękawicy z siłowym sprzężeniem zwrotnym [źródło: www.dextarobotics.com] ... 54
Rys.2.45. System Mixed Reality Tool [źródło: Grunewald 2016] ... 55
Rys.2.46. System Specimen Box – manipulacja obiektem wirtualnym przy pomocy modelu fizycznego [źródło: Zielinski i in. 2017] ... 56
Rys.2.47. Interakcja dotykowa z fizycznym modelem [źródło: Harley i in. 2017] ... 56
Rys.2.48. Interakcja dotykowa z fizycznym modelem (reprezentacją wirtualnego obiektu) z wibracyjnym sprzężeniem zwrotnym [Harley i in. 2017] ... 57
Rys.2.49. Visionary Render firmy Virtalis [źródło: www.virtalis.com] ... 58
Rys.2.50. Wirtualna symulacja wkręcania śrub do karoserii [źródło: www.haption.com] ... 59
Rys.2.51. Symulator wkręcania śrub do obudowy silnika [źródło: Górski i in. 2013] ... 60
Rys.2.52. (a) Wirtualne stanowisko zgrzewania, (b) manipulacja pistoletem zgrzewającym przy wsparciu urządzenia haptycznego [źródło: Górski i in. 2013] ... 60
Rys.2.53. System VEDA: urządzenie haptyczne (po lewej), wizualizacja zadania na ekranie monitora (po prawej) [źródło: Gupta i in. 1997] ... 61
Rys.2.54. System VADE: symulacja montażu części [źródło: Jayram i in. 1999] ... 62
Rys.2.55. System HIDRA: symulacja montażu części przy użyciu manipulatorów haptycznych Phantom [źródło: McDermott i Bras 1999] ... 63
Strona | 143 Rys.2.56. System HAMMS: wizualizacja chronocyklu montażu części oraz interfejs systemu
wraz z manipulatorami haptycznymi [źródło: Ritchie i in. 2008] ... 64
Rys.2.57. System SHARP [źródło: Seth i in. 2008] ... 64
Rys.2.58. Multimodal Training System [źródło: Rodriguez i in. 2012] ... 65
Rys.2.59. System HAPTION SCALE1 [źródło: www.haption.com] ... 66
Rys.3.1. Koncepcja systemu do badań interakcji dotykowej w środowisku VR ... 69
Rys.3.2. Symulacja przemieszczenia wirtualnego obiektu. Realizacja zadania (po lewej), obraz widziany przez użytkownika (po prawej) [źródło: opracowanie własne] ... 72
Rys.4.1. Etapy prac badawczych [źródło: opracowanie własne] ... 75
Rys.4.2. Przebieg badań eksperymentalnych [źródło: opracowanie własne] ... 76
Rys.4.3. Koncepcja rozwiązania [źródło: opracowanie własne] ... 77
Rys.4.4. Algorytm budowy systemu do badań [źródło: opracowanie własne] ... 79
Rys.4.5. Hełm wizyjny Oculus Rift CV1 [źródło: www.pm.put.poznan.pl] ... 80
Rys.4.6. System śledzenia PST-55 [źródło: www.pm.put.poznan.pl] ... 80
Rys.4.7. Interfejs programu Unity 3D [źródło: opracowanie własne] ... 83
Rys.4.8. Panel Scene [źródło: opracowanie własne] ... 84
Rys.4.9. Panel Game [źródło: opracowanie własne] ... 84
Rys.4.10. Panel Project [źródło: opracowanie własne] ... 85
Rys.4.11. Panel Console [źródło: opracowanie własne] ... 85
Rys.4.12. Panel Hierarchy [źródło: opracowanie własne] ... 85
Rys.4.13. Panel Inspector [źródło: opracowanie własne] ... 86
Rys.4.14. Robot typu Delta – zasada działania na bazie modelu CAD 3D [źródło: www.zum.put.poznan.pl] ... 87
Rys.4.15. Robot typu Delta [źródło: www.zum.put.poznan.pl] ... 88
Rys.4.16. Układ sterowania robota typu Delta [źródło: www.zum.put.poznan.pl] ... 88
Rys.4.17. Pozycje obiektów śledzonych w systemie PST-55 [źródło: opracowanie własne] ... 90
Rys.4.18. Stanowisko badawcze [źródło: opracowanie własne] ... 90
Rys.4.19. Koncepcja scenariusza nr 1 [źródło: opracowanie własne] ... 91
Rys.4.20. Koncepcja scenariusza nr 2 [źródło: opracowanie własne] ... 92
Rys.4.21. Koncepcja scenariusza nr 3 [źródło: opracowanie własne] ... 94
Rys.4.22. Cyfrowy model wałka [źródło: opracowanie własne] ... 95
Rys.4.23. Cyfrowy model zespołu do montażu wałka [źródło: opracowanie własne] ... 96
Rys.4.24. Cyfrowy model uproszczonego zespołu do montażu wałka [źródło: opracowanie własne] ... 96
Rys.4.25. Modele fizyczne wałków [źródło: opracowanie własne] ... 97
Rys.4.26. Model fizyczny elementu mocowania sprzętu do pomiaru wartości siły [źródło: opracowanie własne] ... 97
Strona | 144 Rys.4.27. Model fizyczny uproszczonego zespołu do montażu wałków [źródło: opracowanie
własne] ... 97
Rys.4.28. Model fizyczny bransolety [źródło: opracowanie własne] ... 98
Rys.4.29. Rozmieszczenie znaczników na obiekcie fizycznym [źródło: www.ps-tech.com] ... 99
Rys.4.30. Mapa wykrytych znaczników dla oznakowanego modelu fizycznego wałka [źródło: opracowanie własne] ... 99
Rys.4.31. Wirtualna scena do eksperymentów badawczych [źródło: opracowanie własne] . 100 Rys.4.32. Przykładowe wartości wysyłane przez układ sterowana robota typu Delta [źródło: opracowanie własne] ... 103
Rys.4.33. Schemat blokowy algorytmu symulowania obiektu cyfrowego przez efektor końcowy robota typu Delta [źródło: opracowanie własne] ... 104
Rys.4.34. Interfejs środowiska EON Studio [źródło: www.pm.put.poznan.pl] ... 106
Rys.4.35. Kontakt z efektorem końcowym robota typu Delta na stanowisku [źródło: opracowanie własne] ... 107
Rys.4.36. Skrypt do sterowania rzeczywistym robotem typu Delta [źródło:www.pm.put.poznan.pl] ... 107
Rys.4.37. Graficzny interfejs operatora aplikacji testowej (kontrola przemieszczeń wirtualnego robota) [źródło: www.pm.put.poznan.pl ... 108
Rys.5.1. Belka tensometryczna z elementem mocowania ... 110
Rys.5.2. Wartości pomiarowe wysyłane do aplikacji VR ... 111
Rys.5.3. Realizacja scenariusza nr 1 na stanowisku [źródło: opracowanie własne] ... 111
Rys.5.4. Interakcja dotykowa: graficzna prezentacja zarejestrowanych danych (czas realizacji: 10 [s] – scenariusz nr 1 [źródło: opracowanie własne] ... 112
Rys.5.5. Interakcja dotykowa: graficzna prezentacja zarejestrowanych danych (czas realizacji: 22 [s] – scenariusz nr 1 [źródło: opracowanie własne] ... 113
Rys.5.6. Realizacja scenariusza nr 2 na stanowisku [źródło: opracowanie własne] ... 114
Rys.5.7. Stanowisko badawcze dostosowane do treningu zadania proceduralnego [źródło: opracowanie własne]] ... 115
Rys.5.8. Symulacja wirtualna – realizacja zadania proceduralnego – podświetlanie dedykowanego otworu do montażu części [źródło: opracowanie własne] ... 116
Rys.5.9. Realizacja scenariusza nr 3 na stanowisku [źródło: opracowanie własne] ... 116
Rys.5.10. Fizyczny model zespołu do montażu części w zespole [źródło: opracowanie własne] ... 117
Rys.5.11. Częstość stosowania systemów VR oraz aplikacji wirtualnych ... 119
Rys.5.12. Ocena rozwiązania na tle innych systemów i aplikacji VR ... 120
Rys.5.13. Deklaracja chęci korzystania z rozwiązań VR w przyszłości ... 121
Rys.5.14. Poziom trudności w korzystaniu z aplikacji VR ... 121
Rys.5.15. Przykłady niedogodności w trakcie korzystania z rozwiązań VR ... 122 Rys.5.16. Średnie oceny wybranych aspektów funkcjonalnych opracowanego rozwiązania 123
Strona | 145
Rys.5.17. Objawy choroby symulacyjnej ... 124
Rys.5.18. Wpływ bodźca dotykowego na immersyjność aplikacji VR ... 125
Rys.5.19. Stopień przydatności symulacji jako aplikacji treningowej ... 125
Rys.5.20. Stopień realizmu symulacji zadania proceduralnego ... 126
Rys.5.21. Wyniki pomiarów: liczba błędów i wystąpień o pomoc – średnia z 5 prób ... 127
Rys.5.22. Wyniki pomiarów: liczba prób bez błędów i z błędami – średnia z 5 prób ... 127
Rys.5.23. Wyniki pomiarów: grupa 1 – średnia z 5 prób ... 129
Rys.5.24. Wyniki pomiarów: grupa 2 – średnia z 5 prób ... 129
Rys.5.25. Krzywa postępów w nauce zadania ... 130
Strona | 146
SPIS TABEL
Tabela.2.1. Ocena możliwości symulacji procesów wytwarzania i montażu [źródło: Pająk i in.
2011] ... 41
Tabela.4.1. Podstawowe parametry hełmu Oculus Rift CV1 [źródło: Buń i in. 2017b] ... 80
Tabela.4.2. Wybrane parametry systemu PST-55 [źródło: Buń i in. 2017a] ... 81
Tabela.4.3. Struktura datagramu UDP [źródło: Postel 1980] ... 102
Tabela.5.1. Oceny poszczególnych aspektów funkcjonalnych przygotowanego rozwiązania 123 Tabela.Z.1. Pomiary – GRUPA 1 ... 150
Tabela.Z.2. Pomiary – GRUPA 2 ... 150
Tabela.Z.3. Pomiary – GRUPA 3 ... 151
Tabela.Z.4. Pomiary – GRUPA 4 ... 151
Strona | 147
ZAŁĄCZNIK NR 1: BADANIE ANKIETOWE
1. Jak często korzystasz z systemów VR oraz aplikacji wirtualnych?
a) nigdy wcześniej nie używałem VR b) sporadycznie (kilka razy w życiu) c) rzadko (raz na kilka miesięcy) d) regularnie (raz na miesiąc)
e) często (raz na tydzień lub częściej)
2. Jeśli korzystałeś już z technologii VR, jak ogółem oceniasz zaprezentowane rozwiązanie na tle wcześniejszych doświadczeń?
a) neutralnie
b) źle (gorzej niż wcześniejsze doświadczenia) c) dobrze (lepiej niż wcześniejsze doświadczenia)
d) bardzo dobrze (dużo lepiej niż wcześniejsze doświadczenia) e) nie dotyczy (korzystałem pierwszy raz)
3. Jak często korzystałbyś ponownie z technologii VR, gdybyś miał do niej dostęp?
a) tylko w przypadku konieczności (np. raz na rok) b) w razie potrzeby (np. raz na miesiąc)
c) często (raz na tydzień) d) codziennie
4. Określ poziom trudności korzystania z aplikacji VR:
a) łatwy (nic nie sprawiło mi problemu) b) średni (niektóre rzeczy wymagały nauki)
c) trudny (miałem dużo problemów przez cały czas korzystania z VR) d) bardzo trudny (nie byłem w stanie samodzielnie korzystać z aplikacji VR) 5. Co sprawiło Ci największą trudność podczas korzystania z aplikacji VR?
c) trudny (miałem dużo problemów przez cały czas korzystania z VR) d) bardzo trudny (nie byłem w stanie samodzielnie korzystać z aplikacji VR) 5. Co sprawiło Ci największą trudność podczas korzystania z aplikacji VR?