Bu çalışmada, kısmi veya tamamen felçli ve Amyortofik Lateral Sklerosis (ALS) hastaları gibi hareket kısıtlaması olan bireyler için Elektrookülogram (EOG) tabanlı bir İnsan-Makine Arayüz (Human Machine Interface, HMI) uygulaması sunulmuştur. Tasarlanan sistemde yatay ve düşey göz hareketlerinden oluşan EOG sinyalleri göz çevresine yerleştirilen 5 adet AG-AgCl elektrot ile algılanmıştır. Elde edilen sinyaller çeşitli kuvvetlendirme ve filtreleme işlemlerinden geçirilerek analog katın çıkışında anlamlandırabilir EOG işaretleri elde edilmiştir. Analog EOG verilerinin mikrodenetleyici birimi tarafından sayısal olarak işlenmesi neticesinde HMI uygulamalarında kullanılmak üzere kontrol sinyalleri elde edilmiştir. Ön işleme adımından sonra sağ, sol, yukarı ve aşağı yönde göz hareketleri için öz nitelik çıkarımı yapılmıştır. Elde edilen özellikler sınıflandırma adımının performansını doğrudan etkilemektedir. Sınıflandırma için Yapay Sinir Ağları (YSA) k-En Yakın Komşuluk (k-Nearest Neighbour, k-NN) sınıflandırıcısı ve Destek Vektör Makineleri (Support Vector Machine, SVM) kullanılmıştır. Araştırmada elde edilen sonuçlara göre, YSA, k-NN ve SVM yöntemlerinin sırasıyla %83, %73 ve %74 ortalama doğrulukla sınıflandırma işlemini gerçekleştirdiği görülmüştür. Simülasyon sonuçları, sunulan EOG tabanlı HMI sistemi ile hareket kısıtlaması olan hastaların sadece göz hareketlerini kullanarak çevreyle başarılı bir şekilde iletişim kurabileceklerini göstermektedir.
In this study, electrooculogram (EOG) based human-machine interface (HMI) application is proposed for partial or completely paralyzed and physically limited people as Amyotrophic Lateral Sclerosis (ALS) patients. In the designed system, EOG signals consisted of vertical and horizontal eye movements were detected by using 5 Ag-AgCl electrodes which were placed around the eye. Interpretable EOG signs were placed acquired through various reinforcement and filtration processes on the signals. Control signals to be used in HMI applications were acquired as a result of digital signal processing of the analog EOG data by the microcontroller unit. After preprocessing step, feature extraction was conducted for left, right, upwards, and downwards eye movements. These values have a direct impact on the performance of the classification step. Artificial Neural Network (ANN), k-Nearest Neighbour (k-NN), and Support Vector Machines (SVM) were used for classification. Acording to the obtained results, ANN, k-NN, and SVM methods performed the classification process with an accuracy rate of 83%, 73%, and 74%, respectively. Simulation results show that the individuals with reduced mobility might successfully communicate with others via their eye movements through this EOG-based HMI system. The measured signals are applied to various amplification and filtering circuits and by this way usable EOG signals are achieved.