1
دانشجوی دکتری مخابرات ،پژوهشکده برق و فناوری اطلاعات، سازمان پژوهشهای علمی و صنعتی ایران، تهران، ایران
2
استادیار،پژوهشکده برق و فناوری اطلاعات، سازمان پژوهشهای علمی و صنعتی ایران، تهران، ایران
3
دانشیار،پژوهشکده برق و فناوری اطلاعات، سازمان پژوهشهای علمی و صنعتی ایران، تهران، ایران
چکیده
گفتار یا مکالمه خاموش فرایندی است که فرد بدون حرکت دادن عضلات خود برای گفتن کلمه، صدای کلمات را تصور میکند. استفاده از سیگنالهای مغزی شخصی که در حال گفتار خاموش میباشد برای تشخیص کلمات واقعی در نظر گرفته شده، میتواند گامی بزرگ در جهت کمک به افراد دارای ناتوانی جسمی (مانند سندرم قفل شدگی) برای برقراری ارتباط مؤثر با دیگران باشد. پیشرفتهای اخیر در فن آوریها و دستگاههای ضبط سیگنالهای مغز، به ویژه الکتروانسفالوگرام (EEG)، این تحقیق را در شناخت گفتار خاموش ممکن کرده است. در حالی که این تحقیقات در گامهای اولیه است، مطالعات منتشر شده نتایج امیدوار کنندهای را نشان دادهاند. اگرچه در سطح بین المللی فعالیتهای متعددی برای شناسایی اصوات در مکالمه خاموش صورت گرفته، ولی تا کنون برای کلمات فارسی کار زیادی انجام نشده است. در این پژوهش سعی کردهایم پس از طرح آزمایش و ثبت دادهها، با روشهای کلاسه بندی گوناگون و با استناد به ویژگیهای متنوع، تشخیص بین چند کلمه فارسی انجام گردد. 6 کلمه پر کاربرد فارسی و سکوت برای این منظور انتخاب شدهاند. دقتهای بدست آمده شامل متوسط 60% برای تفکیک بین دو کلمه، متوسط 40% برای تفکیک بین دوکلمه به همراه سکوت و 33%برای 6 کلمه و سکوت روی دادگان دراز مدت است. این مقادیر بالاتر از متوسط احتمال موفقیت در انتخاب تصادفی ( به ترتیب 50 و 33 و 14درصد) هستند. بعلاوه نتایج حاصل نشان دهندۀ تاثیر بالای عامل "زمان" بر دقت کلاسهبندی است بطوری که سیگنالهای با فاصله زمانی زیاد براحتی و با دقت بسیار بالا از یکدیگر تفکیک میشوند، حتی اگر مربوط به یک فعالیت باشند. برعکس تمایز بین سیگنالهای تقریباً همزمان، حتی هنگام تصور دو کلمۀ متفاوت بسیار مشکل است. همچنین ملاحظه شد که در تمام موارد قدرت تفکیک با افزایش تعداد کانالهای داده افزایش مییابد.
[1] C. DaSalla, H. Kambara, Y. Koike, M. Sato, “Spatial filtering and single-trial classification of EEG during vowel speech imagery”, Proceedings of the International Convention on Rehabilitation Engineering and Assistive Technology (ICREAT), pp. 1-4, 2009.
[2] T. N. Alotaiby, S. A. Alshebeili, T. Alshawi, I. Ahmad, F. E. Abd El-Samie, “EEG seizure detectionand prediction algorithms: A survey”, EURASIP Journal on Advances in Signal Processing, pp.183 ,2014.
[3] C. Wang, W. Ding, J. Shan, B. Fang, “A Review of Research on Brain-Computer Interface Based on Imagined Speech”. In: Sun F., Liu H., Fang B. (eds) Cognitive Systems and Signal Processing. ICCSIP 2020. Communications in Computer and Information Science, vol 1397, pp 370-378, 2021.
[4] L. Mondada, M. E. Karim, and F. Mondada, “Electroencephalography as implicit communication channel for proximal interaction between humans and robot swarms”, Swarm Intelligence, vol. 10, no. 4, pp.1–19, 2016.
[5] K. Tanaka, K. Matsunaga, and H. O. Wang, “Electroencephalogram based control of anelectric wheelchair”, IEEE Transactions on Robotics, vol. 21, no. 4, pp. 762–766, 2005.
[6] F. Nijboer, E. W. Sellers, J. Mellinger, M. A. Jordan, T. Matuz, A. Furdea, S. Halder, U. Mochty, D.J. Krusienski, and T. M. Vaughan, “A P300-based brain–computer interface for people with amyotrophic lateral sclerosis”, Clinical neurophysiology, vol. 119, no. 8, pp. 1909-1916, 2008.
[7] E. Donchin and Y. Arbel, “P300 based brain computer interfaces: a progress report,Foundations of Augmented Cognition”, Neuroergonomics and Operational Neuroscience, pp. 724–731, 2009.
[8] C. S. DaSalla, H. Kambara, M. Sato, and Y. Koike, “Single-trial classification of vowel speech imagery using common spatial patterns”, Neural networks, vol. 22, no. 9, pp. 1334–1339 (2009)
[9] Beomjun Min, Jongin Kim, Hyeong-jun Park, Boreom Lee, “Vowel Imagery Decoding toward Silent Speech BCI Using Extreme Learning Machine with Electroencephalogram”, BioMed Research International, vol. 2016, Article ID 2618265, 11 pages, 2016.
[10] B. M. Idrees and O. Farooq, Vowel classification using wavelet decomposition during speech imagery, 2016 3rd International Conference on Signal Processing and Integrated Networks (SPIN), Noida, pp. 636- 640 (2016)
[11] S. Deng, R. Srinivasan, T. Lappas, and M. D’Zmura, Eeg classification of imagined syllable rhythm using hilbert spectrum methods, Journal of neural engineering, vol. 7, no. 4, p. 046006 (2010)
[12] J. Kim, S.-K. Lee, and B. Lee, Eeg classification in a single trial basis for vowel speech perception usingmultivariate empirical mode decomposition, Journal of neural engineering, vol. 11, no. 3, p. 036010 (2014)
[13] K. Brigham and B. V. Kumar, Imagined speech classification with eeg signals for silent communication:a preliminary investigation into synthetic telepathy, iCBBE, 2010. IEEE, 2010, pp. 1–4 (2010)
[14] M. DZmura, S. Deng, T. Lappas, S. Thorpe, and R. Srinivasan, Toward eeg sensing of imagined speech,HCI 2009. Springer, pp. 40–48. (2009) https://doi.org/10.1007/978-3-642-02574-7 5
[15] L. Wang, X. Zhang, X. Zhong, and Y. Zhang, Analysis and classification of speech imagery eeg for bci, Biomedical signal processing and control, vol. 8, no. 6, pp. 901–908 (2013)
[16] E. F. Gonz´alez-Casta˜neda, A. A. Torres-Garc´ıa, C. A. Reyes-Garc´ıa, and L. Villase˜nor-Pineda, Sonification and textification: Proposing methods for classifying unspoken words from eeg signals, Biomedical Signal Processing and Control, vol. 37, pp. 82–91 (2017)
[17] K. Mohanchandra and S. Saha, A communication paradigm using subvocalized speech: translating brain signals into speech, Augmented Human Research, vol. 1, no. 1, p. 3 (2016)
[18] P Saha, M Abdul-Mageed, S Fels, “SPEAK YOUR MIND! Towards Imagined Speech Recognition With Hierarchical Deep Learning”, arXiv preprint, 2019. https://arxiv.org/abs/1904.05746
[19]Neupsy Key, https://neupsykey.com/eeg-instrumentation, February 2017.
[20] M. Alsaleh, R. Moore, H. Christensen and M. Arvaneh, "Examining Temporal Variations in Recognizing Unspoken Words Using EEG Signals," 2018 IEEE International Conference on Systems, Man, and Cybernetics (SMC), pp. 976-981, 2018.
[21] شرکت طراحی نگاراندیشگان، http://www.negand.com
[22] م. اصغری بجستانی، غ. محمدخانی، س. گرگین، و. نفیسی، غ. فراهانی، "طبقهبندی سیگنالهای مغزی EEG برای تشخیص بین دو واژه در گفتار خاموش،" پردازش علائم و دادهها، دوره ۱۷، شماره 2، ص۱۲۰-۱۱۳، ۱۳۹۹. http://jsdp.rcisp.ac.ir/article-1-843-fa.html
اصغریبجستانی,محمدرضا , محمدخانی,غلامرضا و نفیسی,وحیدرضا . (1399). کلاسهبندی چند کلاسهی تصور کلمات فارسی در سیگنالهای مغزی. (e162021). علوم رایانش و فناوری اطلاعات, 18(2), e162021
MLA
اصغریبجستانی,محمدرضا , , محمدخانی,غلامرضا , و نفیسی,وحیدرضا . "کلاسهبندی چند کلاسهی تصور کلمات فارسی در سیگنالهای مغزی" .e162021 , علوم رایانش و فناوری اطلاعات, 18, 2, 1399, e162021.
HARVARD
اصغریبجستانی محمدرضا, محمدخانی غلامرضا, نفیسی وحیدرضا. (1399). 'کلاسهبندی چند کلاسهی تصور کلمات فارسی در سیگنالهای مغزی', علوم رایانش و فناوری اطلاعات, 18(2), e162021.
CHICAGO
محمدرضا اصغریبجستانی, غلامرضا محمدخانی و وحیدرضا نفیسی, "کلاسهبندی چند کلاسهی تصور کلمات فارسی در سیگنالهای مغزی," علوم رایانش و فناوری اطلاعات, 18 2 (1399): e162021,
VANCOUVER
اصغریبجستانی محمدرضا, محمدخانی غلامرضا, نفیسی وحیدرضا. کلاسهبندی چند کلاسهی تصور کلمات فارسی در سیگنالهای مغزی. علوم رایانش و فناوری اطلاعات, 1399; 18(2): e162021.