Please use this identifier to cite or link to this item:
https://cuir.car.chula.ac.th/handle/123456789/11821
Title: | การประยุกต์การโปรแกรมตรรกะเชิงอุปนัยและแบ็กพรอพาเกชันนิวรอลเน็ตเวิร์กในการรู้จำตัวพิมพ์อักษรไทย |
Other Titles: | An application of inductive logic programming and backpropagation neural network to Thai printed character recognition |
Authors: | สุกรี สินธุภิญโญ |
Advisors: | บุญเสริม กิจศิริกุล |
Other author: | จุฬาลงกรณ์มหาวิทยาลัย. บัณฑิตวิทยาลัย |
Advisor's Email: | [email protected] |
Subjects: | การรู้จำอักขระ (คอมพิวเตอร์) ภาษาไทย -- ตัวอักษร แบคพรอพาเกชัน (ปัญญาประดิษฐ์) นิวรัลเน็ตเวิร์ค (คอมพิวเตอร์) การโปรแกรมตรรกะเชิงอุปนัย |
Issue Date: | 2541 |
Publisher: | จุฬาลงกรณ์มหาวิทยาลัย |
Abstract: | การรู้จำตัวพิมพ์อักษรไทยได้รับการศึกษาจากผู้วิจัยอย่างแพร่หลายมาเป็นเวลานานโดยมีการใช้วิธีการต่างๆ เพื่อทำการทดลอง วิธีการโปรแกรมตรรกะเชิงอุปนัย (Inductive Logic Programming:ILP) หรือไอแอลพี เป็นวิธีการหนึ่งที่ถูกนำมาใช้กับการรู้จำตัวพิมพ์อักษรไทยได้เป็นอย่างดี มีอัตราการรู้จำ 84.97% ซึ่งวิธีการนี้ทำการรู้จำโดยการสร้างกฎขึ้นจากตัวอย่างบวก ตัวอย่างลบ และความรู้ภูมิหลัง ทั้งหมดนี้ถูกอธิบายในรูปของโปรแกรมเชิงตรรกะ อย่างไรก็ตามในการใช้วิธีการไอแอลพีเพื่อทำการจำแนกตัวพิมพ์อักษรไทย 77 ตัว ออกเป็นหลายคลาส (class) จะเกิดปัญหาขึ้น เนื่องจากระบบที่ใช้วิธีการไอแอลพีส่วนใหญ่จะทำงานเกี่ยวกับตัวอย่างเพียง 2 คลาส คือ ตัวอย่างบวก และตัวอย่างลบ และสร้างกฎสำหรับตัวอย่างบวกขึ้น ตัวอย่างที่ไม่ตรงกับกฎจะถูกจำแนกเป็นลบ ในวิทยานิพนธ์ฉบับนี้ วิธีการไอแอลพีจะต้องทำการเรียนรู้แนวคิดแบบหลายคลาส (multi-class concept) ซึ่งสามารถกระทำได้โดยสร้างกฎสำหรับแต่ละคลาสขึ้นจากตัวอย่างบวกซึ่งเป็นตัวอย่างของคลาสนั้นและตัวอย่างลบซึ่งเป็นตัวอย่างของคลาสอื่นๆ กฎเหล่านี้จะถูกนำไปใช้ในการจำแนกตัวอย่างใหม่ต่อไป แต่ในกรณีของตัวอย่างใหม่โดยเฉพาะอย่างยิ่งตัวอย่างที่มีสัญญาณรบกวนอาจไม่ตรงกับกฎข้อใดเลย ซึ่งวิธีการไอแอลพีจะไม่สามารถจำแนกตัวอย่างเหล่านี้ได้ ดังนั้นจึงต้องใช้วิธีการอื่นเพื่อทำการประมาณในการเลือกกฎที่ใกล้เคียงกับตัวอย่างในกรณีดังกล่าว วิทยานิพนธ์ฉบับนี้นำเสนอวิธีการทำการประมาณเพื่อเลือกกฎโดยใช้แบ็กพรอพาเกชันนิวรอลเน็ตเวิร์ก (Backpropagation Neural Network: BNN) หรือ บีเอ็นเอ็น ซึ่งในบีเอ็นเอ็นแบบที่หนึ่งใช้จำนวนสัญพจน์ (literal) ที่ไม่ตรงและจำนวนสัญพจน์ที่ตรงกับตัวอย่างเป็นอินพุตเวกเตอร์ (input vector) ในกระบวนการเรียนรู้ อัตราการรู้จำของบีเอ็นเอ็นแบบนี้มีค่า 92.55% ซึ่งสูงกว่าอัตราการรู้จำของไอแอลพีเพียงอย่างเดียว แต่ข้อเสียคือบีเอ็นเอ็นแบบที่หนึ่งนี้ให้ความสำคัญของทุกสัญพจน์ในกฎแต่ละข้อเท่ากัน ดังนั้นจึงไม่สามารถกำหนดให้สัญพจน์ที่สำคัญกว่ามีค่าน้ำหนักมากกว่าสัญพจน์อื่นๆ ได้ เมื่อใช้ค่าความจริงของสัญพจน์ทุกสัญพจน์ในกฎแต่ละข้อแทนจำนวนสัญพจน์ที่ไม่ตรงและจำนวนสัญพจน์ที่ตรงกับตัวอย่างเป็นอินพุตเวกเตอร์ในโครงสร้างบีเอ็นเอ็นแบบที่สอง ทำให้ได้อัตราการรู้จำสูงขึ้นเป็น 94.26% ซึ่งสูงกว่าวิธีการอื่นๆ ที่ทำการทดสอบในวิทยานิพนธ์ฉบับนี้ |
Other Abstract: | Thai printed character recognition has been widely studied for many years. Several approaches to this task have been proposed. Inductive Logic Programming (ILP) was one successful approach that achieved 84.97% of recognition accuracy. ILP produces the definition of the rules from positive examples, negative examples and background knowledge, all of which are described in logic programs. However, some problems arise when ILP is applied to task of classifying 77 different Thai characters where there are several classes of examples. Most ILP systems work with two classes of examples (positive and negative), and construct a set of rules for the positive class. Any example not covered by the rules is classified as negative. In this thesis, ILP must learn a multi-class concept that could be produced by constructing a set of rules for each class with its examples as positive and the other examples as negative. These learned rules are then used to classify future data. However, in case of unseen character images, especially the noisy images, may not exactly match with any rules in the rule set, i.e., they may not be covered by any rules. Thus, a method for approximating the rule that best matches the unseen image is needed. This thesis presents a method for rule approximation by using Backpropagation Neural Network (BNN). First the number of nonmatching literals and the number of matching literals are used as the training input vector to BNN. The recognition accuracy of the first BNN is 92.55% which improves that of ILP alone. However, the disadvantage of this BNN is that it takes each literal in a rule with equal significance. Thus, it is unable to give important literals higher weights than others. Instead of the numbers of nonmatching and matching literals, the second structure of BNN is designed to uses the truth values of all literals as the input vector. This second BNN yields the significant improvement by achieving 94.26% accuracy and surpasses the other methods tested in this thesis. |
Description: | วิทยานิพนธ์ (วศ.ม.)--จุฬาลงกรณ์มหาวิทยาลัย, 2541 |
Degree Name: | วิศวกรรมศาสตรมหาบัณฑิต |
Degree Level: | ปริญญาโท |
Degree Discipline: | วิศวกรรมคอมพิวเตอร์ |
URI: | http://cuir.car.chula.ac.th/handle/123456789/11821 |
ISBN: | 9743321519 |
Type: | Thesis |
Appears in Collections: | Grad - Theses |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
Sukree_Si_front.pdf | 780.65 kB | Adobe PDF | View/Open | |
Sukree_Si_ch1.pdf | 731.19 kB | Adobe PDF | View/Open | |
Sukree_Si_ch2.pdf | 916.92 kB | Adobe PDF | View/Open | |
Sukree_Si_ch3.pdf | 897.38 kB | Adobe PDF | View/Open | |
Sukree_Si_ch4.pdf | 753.41 kB | Adobe PDF | View/Open | |
Sukree_Si_ch5.pdf | 692.67 kB | Adobe PDF | View/Open | |
Sukree_Si_back.pdf | 934.77 kB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.