Please use this identifier to cite or link to this item: https://cuir.car.chula.ac.th/handle/123456789/74226
Title: การปรับอัตราการเรียนรู้แบบพลวัตในข่ายงานระบบประสาท
Other Titles: Dynamic adjustments of learning rates of neural networks
Authors: ณัฐวุฒิ สุขเจริญนุกูล
Advisors: เจษฎา ชินรุ่งเรือง
Other author: จุฬาลงกรณ์มหาวิทยาลัย. บัณฑิตวิทยาลัย
Advisor's Email: [email protected]
Subjects: นิวรัลเน็ตเวิร์ค (วิทยาการคอมพิวเตอร์)
พลศาสตร์
Neural networks (Computer science)
Dynamics
Issue Date: 2540
Publisher: จุฬาลงกรณ์มหาวิทยาลัย
Abstract: การปรับพารามิเตอร์ของข่ายงานระบบประสาทโดยทั่วไป อาศัยหลักการของการลดระดับตามแนวเกร เดียนต์ (steepest descent) ความเร็วและความถูกต้องในการปรับพารามิเตอร์จะขึ้นกับค่าพารามิเตอร์ที่เรียกว่า อัตรา การเรียนรู้ ซึ่งปกติถูกกำหนดให้เป็นค่าคงตัว อัตราการเรียนรู้แบบค่าคงตัวมีผลเสียในแงที่ว่า การหาค่าเหมาะสมทำได้ ยาก นอกจากนี้ ในกรณีการประยุกต์ใช้งานแบบเชื่อมตรง การปรับพารามิเตอร์ของข่ายงานระบบประสาทด้วยอัตราการเรียนรู้คงตัวไม่สามารถให้ความเร็วและความถูกต้องของค่าเหมาะสมที่สุดได้พร้อมกัน เพื่อหลีกเลี่ยงปัญหาดังกล่าว ได้มีผู้เสนอวิธีการปรับอัตราการเรียนรู้โดยให้มีค่าเปลี่ยนไปตามเวลาและสภาพของปัญหาในขณะนั้น ๆ วิทยานิพนธ์ฉบับนี้มีวัตถุประสงค์เพื่อรวบรวมวิธีการปรับอัตราการเรียนรู้แบบต่าง ๆ พร้อมทั้งทดสอบการใช้งานในแบบเชื่อมตรง การ ทดสอบปัญหาแรกเป็นปัญหาการประมาณฟังก์ชั่นเชิงเส้นที่เปลี่ยนและไม่เปลี่ยนแปลงตามเวลา ปัญหาการทดสอบที่ สองเป็นการชดเชยช่องสัญญาณในงานสื่อสารเชิงเลข ผลที่ได้แสดงให้เห็นว่า การปรับอัตราการเรียนรู้แบบพลวัตช่วยให้ ข่ายงานระบบประสาทปรับตัวได้เร็วและให้ความถูกต้องของจุดเหมาะสมที่สุดได้ดีกว่าการใช้อัตราการเรียนรู้แบบค่าคง ตัว ข้อมูลจากการทดสอบสามารถใช้เป็นแนวทางสำหรับการปรับปรุงวิธีเพื่อการประยุกต์ใช้งานเฉพาะด้าน หรือค้นหา หลักเกณฑ์ในการคัดเลือกวิธีที่เหมาะสม
Other Abstract: Most learning algorithms of neural networks are implemented based on the method of steepest descent. The performance of these algorithms depend strongly on a parameter called the learning rate. For a constant learning rate, there is a trade-off between convergence speed and adaptation accuracy. When the learning rate is large, the algorithm converges rapidly but with low accuracy. Conversely, when the learning rate is small, the algorithm converges with high accuracy but low speed. In order to avoid this trade-off, several reseachers had proposed adaptation techniques where their learning rates vary dynamically with time. The objective of this thesis is to summarize methods for dynamically adapting the learning rates and compare their performances on two standard problem sets. The first is the problem of approximating both stationary and nonstationary linear functions. The second is a channel equalization in a digital communication system. The results obtained indicate that the dynamic adjustments of learning rates improve the rate of convergence and adaptation accuracy compared with those of constant learning rates. The insight gained from this thesis can be used as the guideline for selecting and improving an algorithm for a given application.
Description: วิทยานิพนธ์ (วศ.ม.)--จุฬาลงกรณ์มหาวิทยาลัย, 2540
Degree Name: วิศวกรรมศาสตรมหาบัณฑิต
Degree Level: ปริญญาโท
Degree Discipline: วิศวกรรมไฟฟ้า
URI: http://cuir.car.chula.ac.th/handle/123456789/74226
URI: http://doi.org/10.14457/CU.the.1997.336
ISBN: 9746389823
metadata.dc.identifier.DOI: 10.14457/CU.the.1997.336
Type: Thesis
Appears in Collections:Grad - Theses

Files in This Item:
File Description SizeFormat 
Nutthawut_su_front_p.pdfหน้าปก และบทคัดย่อ1.14 MBAdobe PDFView/Open
Nutthawut_su_ch1_p.pdfบทที่ 1832.5 kBAdobe PDFView/Open
Nutthawut_su_ch2_p.pdfบทที่ 21.77 MBAdobe PDFView/Open
Nutthawut_su_ch3_p.pdfบทที่ 31.37 MBAdobe PDFView/Open
Nutthawut_su_ch4_p.pdfบทที่ 42.02 MBAdobe PDFView/Open
Nutthawut_su_ch5_p.pdfบทที่ 51.93 MBAdobe PDFView/Open
Nutthawut_su_ch6_p.pdfบทที่ 6803.06 kBAdobe PDFView/Open
Nutthawut_su_back_p.pdfบรรณานุกรม และภาคผนวก684.13 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.