Please use this identifier to cite or link to this item: https://cuir.car.chula.ac.th/handle/123456789/45556
Title: การพัฒนาเทคโนโลยีเพื่อการปฏิสัมพันธ์ระหว่างมนุษย์และคอมพิวเตอร์โดยใช้สัญญาณสมองร่วมกับสัญญาณอื่นๆหลายรูปแบบ
Other Titles: DEVELOPMENT OF BRAIN-ASSISTED MULTIMODAL HUMAN COMPUTER INTERACTION TECHNOLOGY
Authors: นพดล จตุไพบูลย์
Advisors: เศรษฐา ปานงาม
พศิน อิศรเสนา ณ อยุธยา
Advisor's Email: [email protected]
[email protected]
Subjects: ความรู้สึก
ปฏิสัมพันธ์มนุษย์-คอมพิวเตอร์
การบันทึกคลื่นไฟฟ้าสมอง
การเรียนรู้ของเครื่อง
Emotions
Human-computer interaction
Electroencephalography
Machine learning
Issue Date: 2557
Publisher: จุฬาลงกรณ์มหาวิทยาลัย
Abstract: ในปัจจุบันคอมพิวเตอร์ส่วนใหญ่ยังขาดการรับรู้ในเรื่องของอารมณ์ ส่งผลให้คอมพิวเตอร์ไม่สามารถตัดสินใจกระทำการที่เหมาะสมเพื่อตอบสนองอารมณ์ความต้องการของมนุษย์ได้ มีเพียงไม่กี่งานวิจัยที่นำเสนอระบบจำแนกอารมณ์แบบเรียลไทม์โดยใช้สัญญาณคลื่นไฟฟ้าสมองร่วมกับสัญญาณทางสรีรวิทยาอื่นๆ เราจึงได้พัฒนากระบวนการจำแนกอารมณ์ โดยใช้สัญญาณคลื่นไฟฟ้าสมอง คลื่นไฟฟ้าหัวใจ และ ความนำไฟฟ้าของผิวหนัง ตัวกระตุ้นที่ใช้ คือ ภาพและเสียง ตัวจำแนกที่ใช้ คือ SVM จากผลการทดลองแสดงให้เห็นว่า ในการจำแนกอารมณ์แบบขึ้นอยู่กับตัวบุคคล ค่าความแม่นยำในการจำแนกอารมณ์เชิงบวกและอารมณ์ตื่นเต้น อยู่ที่ 77.50% และ 77.50% ตามลำดับ ในการจำแนกอารมณ์แบบไม่ขึ้นอยู่กับตัวบุคคล ค่าความแม่นยำในการจำแนกอารมณ์เชิงบวกและอารมณ์ตื่นเต้น อยู่ที่ 71.75% และ 68.75% ตามลำดับ เมื่อใช้วินโดว์เวลาที่เพิ่มขึ้น พบว่าค่าความแม่นยำในการจำแนกอารมณ์มีแนวโน้มที่จะเพิ่มขึ้นด้วย เมื่อใช้ข้อมูลเฉพาะการกระตุ้นอารมณ์รอบแรก พบว่าค่าความแม่นยำในการจำแนกอารมณ์มีค่าเพิ่มขึ้นเกือบทั้งหมด เมื่อใช้เฉพาะคุณลักษณะที่มีนัยสำคัญ พบว่าค่าความแม่นยำในการจำแนกอารมณ์มีค่าลดลงจากการใช้คุณลักษณะทั้งหมดเล็กน้อย เมื่อใช้จำนวนช่วงเวลาที่ใช้เป็นข้อมูลฝึกเพิ่มขึ้นในการจำแนกอารมณ์แบบไม่ขึ้นอยู่กับช่วงเวลา และ เมื่อใช้จำนวนคนที่ใช้เป็นข้อมูลฝึกเพิ่มขึ้นในการจำแนกอารมณ์แบบไม่ขึ้นอยู่กับตัวบุคคล พบว่าค่าความแม่นยำในการจำแนกอารมณ์มีแนวโน้มที่จะเพิ่มขึ้นด้วย เมื่อใช้ค่าขีดแบ่งอารมณ์ที่เพิ่มขึ้น พบว่าค่าความแม่นยำในการจำแนกอารมณ์มีแนวโน้มที่จะเพิ่มขึ้นด้วย จากผลการทดลองเหล่านี้ เราได้พัฒนาระบบจำแนกอารมณ์แบบเรียลไทม์ ซึ่งสามารถนำเอาไปประยุกต์ใช้ในอุตสาหกรรมการแพทย์และอุตสาหกรรมบริการ เช่น ระบบดูแลสุขภาพ และ เกม เป็นต้น
Other Abstract: Because most computers lack an understanding of emotions, sometimes they are unable to respond to the user’s needs appropriately. There are few studies that presented real-time multimodal emotion classification based on EEG. So we developed the process to classify emotion using EEG, ECG, and SC signals. The stimuli are pictures and music. The classifier is SVM. The results are as follows. In subject-dependence, the valence and arousal accuracy are 77.50% and 77.50% respectively. In subject-independence, the valence and arousal accuracy are 71.75% and 68.75% respectively. Considering the time window, when the longer time window is used in training, the accuracy tends to increase. Using only data from the first trial usually gives higher accuracy than using all data. Using only significant features usually gives a little lower accuracy than using all features. Considering the number of sessions and subjects in session-independence and subject-independence respectively, when the more number of sessions or subjects are used, the accuracy tends to increase. Considering the emotion threshold, when the more threshold value is used, the accuracy tends to increase. From all of these results, we developed real-time emotion classification system that can be applied to fit in medical and service industries such as healthcare system and game applications.
Description: วิทยานิพนธ์ (วศ.ด.)--จุฬาลงกรณ์มหาวิทยาลัย, 2557
Degree Name: วิศวกรรมศาสตรดุษฎีบัณฑิต
Degree Level: ปริญญาเอก
Degree Discipline: วิศวกรรมคอมพิวเตอร์
URI: http://cuir.car.chula.ac.th/handle/123456789/45556
URI: http://doi.org/10.14457/CU.the.2014.981
metadata.dc.identifier.DOI: 10.14457/CU.the.2014.981
Type: Thesis
Appears in Collections:Eng - Theses

Files in This Item:
File Description SizeFormat 
5571429121.pdf5.76 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.