วันศุกร์ที่ ๒๐ กรกฎาคม พ.ศ. ๒๕๕๐



เพอร์เซปตรอน (perceptron) เป็นข่ายงานประสาทเทียมประเภทหนึ่ง ที่ได้รับการพัฒนาขึ้นใน ค.ศ. 1957 โดย แฟรงค์ โรเซนบลัทท์ ที่ Cornell Aeronautical Laboratory
เพอร์เซปตรอนประกอบด้วยเซลล์ประสาทเทียม หรือนิวรอน อย่างน้อยหนึ่งชั้น, อินพุตจะถูกส่งตรงไปยังเอาท์พุต โดยผ่านชุดค่าน้ำหนัก, ด้วยเหตุนี้ จึงสามารถพิจารณาว่าเป็นข่ายงานป้อนไปหน้า (feedforward network) แบบพื้นฐานที่สุด. นิวรอนแต่ละตัวจะคำนวณผลรวมถ่วงน้ำหนักจากอินพุต, ซึ่งก็คือผลรวมของผลคูณระหว่างค่าอินพุตกับค่าน้ำหนักของแต่ละตัว, ถ้าค่าที่ได้จากการคำนวณนี้ ! มากกว่าขีดแบ่ง (threshold) นิวรอนก็จะให้ค่าเอาท์พุตเท่ากับ 1, ถ้าน้อยกว่าก็จะให้ค่า -1. เพื่อให้ง่ายจึงมักจะกำหนดให้ขีดแบ่ง เป็นค่าน้ำหนักตัวหนึ่งของอินพุตที่เป็นค่าคงที่, โดยฟังก์ชันค่าขีดแบ่งจะมีศูนย์กลางอยู่ที่ 0.
นิวรอนที่ใช้ฟังก์ชันกระตุ้น (activation function) แบบนี้ อาจจะเรียกว่า นิวรอนแบบแมคคัลลอค-พิตส์ (McCulloch-Pitts neurons) หรือ นิวรอนขีดแบ่ง (threshold neurons) ในเอกสารทางวิชาการส่วนใหญ่ มักจะใช้คำว่า เพอร์เซปทรอน เมื่อพูดถึงข่ายงานที่ประกอบด้วยนิวรอนแบบนี้เพียงหน่วยเดียว
ขั้นตอนวิธีการเรียนรู้อย่างง่าย ที่สามารถนำมาใช้กับเพอร์เซปตรอน จะเรียกว่า กฎเดลต้า (delta-rule) โดยจะคำนวณค่าความผิดพลาดระหว่างเอาท์พุตที่ได้ กับเอาท์พุตของตัวอย่าง แล้วนำค่าที่ได้ไปปรับค่าน้ำหนัก โดยนำไปใช้ในรูปแบบของการเคลื่อนลงตามความชัน (gradient descent)
แม้ว่าในช่วงแรกเพอร์เซปตรอนจะทำงานได้ตามที่ต้องการ แต่ต่อมาก็สามารถพิสูจน์ได้ว่าไม่สามารถสอนให้เพอร์เซปตรอนอย่างง่าย รู้จำรูปแบบต่างๆ หลายแบบ ทำให้งานวิจัยทางด้านนี้หยุดนิ่งไปหลายปี จนกระทั่งมีการค้นพบว่าข่ายงานประสาทแบบสามชั้นหรือมากกว่า ให้ผลที่ดีกว่าเพอร์เซปตรอนอย่างมาก
เพอร์เซปตรอนอย่างง่าย ที่ประกอบด้วยหนึ่งหรือสองชั้นนั้น สามารถเรียนรู้เฉพาะรูปแบบที่สามารถแบ่งแยกเชิงเส้น (linearly separable) ซึ่งใน ค.ศ. 1969 บทความที่มีชื่อเสียง ที่มีชื่อว่า Perceptrons โดย มาร์วิน มินสกี (Marvin Minsky) และ เซมัวร์ พาเพอรท์ (Seymour Papert) แสดงให้เห็นว่า ไม่สามารถใช้ข่ายงานแบบนี้เรียนรู้ฟังก์ชัน XOR และพวกเขาก็ได้คาดเดา (อย่างผิดพลาด) ว่าจะได้ผลเหมือนกัน แม้ว่าจะใช้ข่า�! ��งานที่มีสามชั้นหรือมากกว่า
การค้นพบในทศวรรษ 1980 ว่าข่ายงานประสาทหลายชั้น (multi-layer neural network) ไม่กระทบกับปัญหานี้ (ในความเป็นจริง) ทำให้งานวิจัยด้านนี้ฟื้นกลับมาอีกครั้ง


�เพอร์เซปตรอน
อ้างอิง

Rosenblatt, Frank (1958), The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain, Cornell Aeronautical Laboratory, Psychological Review, v65, No. 6, pp. 386-408.
Minsky M L and Papert S A 1969 Perceptrons (Cambridge, MA: MIT Press)

ไม่มีความคิดเห็น: