Please use this identifier to cite or link to this item: https://cuir.car.chula.ac.th/handle/123456789/7683
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorสมชาย จิตะพันธ์กุล-
dc.contributor.advisorสุดาพร ลักษณียนาวิน-
dc.contributor.authorชัย วุฒิวิวัฒน์ชัย-
dc.contributor.otherจุฬาลงกรณ์มหาวิทยาลัย. บัณฑิตวิทยาลัย-
dc.date.accessioned2008-07-28T07:56:50Z-
dc.date.available2008-07-28T07:56:50Z-
dc.date.issued2540-
dc.identifier.isbn9746384341-
dc.identifier.urihttp://cuir.car.chula.ac.th/handle/123456789/7683-
dc.descriptionวิทยานิพนธ์ (วศ.ม.)--จุฬาลงกรณ์มหาวิทยาลัย, 2540en
dc.description.abstractพัฒนาวิธีการรู้จำคำไทยหลายพยางค์แบบไม่ขึ้นต่อผู้พูด โดยใช้นิวรอลเน็ตเวอร์ก และใช้เทคนิคแบบฟัซซีในการปรับปรุงข้อมูลที่ใช้ในการฝึกฝน โดยแทนที่จะใช้ข้อมูลเข้าเป็นค่าสมาชิกภาพแบบฟัซซี ร่วมกับข้อมูลออกที่ต้องการแบบค่าสมาชิกภาพของแต่ละคำศัพท์ในการฝึกฝน ดังที่เคยใช้ในงานวิจัยหลายๆ งานที่ผ่านมา จะใช้ข้อมูลเข้าเป็นค่าสมาชิกภาพแบบฟัซซี ร่วมกับข้อมูลออกที่ต้องการแบบเลขฐานสอง ชุดคำศัพท์ประกอบด้วยคำศัพท์ตัวเลข 0-9 ชุดคำศัพท์หนึ่งพยางค์อื่นๆ ที่ไม่ใช่ตัวเลข 20 คำ ชุดคำศัพท์สองพยางค์ 20 คำ และชุดคำศัพท์สามพยางค์ 20 คำ โดยใช้วิธีการตรวจสอบจำนวนพยางค์ และการตรวจสอบเสียงวรรณยุกต์ ในการแบ่งกลุ่มคำศัพท์เบื้องต้น เพื่อลดจำนวนคำศัพท์ที่นิวรอลเน็ตเวอร์กหนึ่งๆ จะต้องรู้จำ ผู้พูดในชุดฝึกฝนมีจำนวน 50 คน และชุดทดสอบแบบไม่ขึ้นต่อผู้พูด 10 คน ผลการทดสอบได้อัตราการรู้จำแบบขึ้นต่อผู้พูด และแบบไม่ขึ้นต่อผู้พูดเฉลี่ย 94.4 และ 93.3 เปอร์เซ็นต์ ตามลำดับ ซึ่งสูงกว่ากรณีที่ใช้ข้อมูลเข้าเป็นค่าสัมประสิทธิ์การประมาณพันธะเชิงเส้น 3.3 และ 3.4 เปอร์เซ็นต์ ตามลำดับen
dc.description.abstractalternativeTo develop algorithms for a speaker independent Thai polysyllabic word recognition system using neural network with improvement training data by fuzzy technique. Instead of using fuzzy membership input data and class membership desired-output data during training as seen in several works, we use fuzzy membership input data and binary desired-output. Vocabulary set contains numeral figures 0-9, including other 20 single-syllabic words, 20 double-syllabic words and 20 triple-syllabic words. The syllable detection and tone detection algorithms are used for vocabulary pre-classification in order to decrease the number of vocabularies to be feeding to the neural network. With 50 training subjects and 10 independent test subjects, the average recognition rates of speaker dependent and speaker independent test are 94.4 and 93.3% respectively. There is an increase of 3.3 and 3.4% respectively compared to the recognition using only LPC input data.en
dc.format.extent597290 bytes-
dc.format.extent291625 bytes-
dc.format.extent1185103 bytes-
dc.format.extent697991 bytes-
dc.format.extent1393473 bytes-
dc.format.extent318256 bytes-
dc.format.extent778738 bytes-
dc.format.mimetypeapplication/pdf-
dc.format.mimetypeapplication/pdf-
dc.format.mimetypeapplication/pdf-
dc.format.mimetypeapplication/pdf-
dc.format.mimetypeapplication/pdf-
dc.format.mimetypeapplication/pdf-
dc.format.mimetypeapplication/pdf-
dc.language.isothes
dc.publisherจุฬาลงกรณ์มหาวิทยาลัยen
dc.rightsจุฬาลงกรณ์มหาวิทยาลัยen
dc.subjectการรู้จำเสียงพูดอัตโนมัติen
dc.subjectนิวรัลเน็ตเวิร์ค (คอมพิวเตอร์)en
dc.subjectภาษาไทย -- คำและวลีen
dc.subjectฟัสซีเซตen
dc.titleการรู้จำเสียงคำไทยหลายพยางค์แบบไม่ขึ้นกับผู้พูด โดยใช้เทคนิคแบบฟัซซีและนิวรอลเน็ตเวิร์กen
dc.title.alternativeSpeaker independent Thai polysyllabic word recognition using Fuzzy-technique and Neural Networken
dc.typeThesises
dc.degree.nameวิศวกรรมศาสตรมหาบัณฑิตes
dc.degree.levelปริญญาโทes
dc.degree.disciplineวิศวกรรมไฟฟ้าes
dc.degree.grantorจุฬาลงกรณ์มหาวิทยาลัยen
dc.email.advisor[email protected]-
dc.email.advisor[email protected]-
Appears in Collections:Grad - Theses

Files in This Item:
File Description SizeFormat 
Chai_Wu_front.pdf583.29 kBAdobe PDFView/Open
Chai_Wu_ch1.pdf284.79 kBAdobe PDFView/Open
Chai_Wu_ch2.pdf1.16 MBAdobe PDFView/Open
Chai_Wu_ch3.pdf681.63 kBAdobe PDFView/Open
Chai_Wu_ch4.pdf1.36 MBAdobe PDFView/Open
Chai_Wu_ch5.pdf310.8 kBAdobe PDFView/Open
Chai_Wu_back.pdf760.49 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.