August 15, 2020

AI กับ ศีลธรรมยุค 5.0

February 05, 2020 2543

"โลกอนาคตเป็นของ AI อนาคตของรัสเซีย และอนาคตของมวลมนุษยชาติ ประเทศที่เป็นผู้นำในศาสตร์นี้ จะกลายเป็นมหาอำนาจของโลกอย่างแท้จริง"  วลาดิมีร์ ปูติน ประธานาธิบดีรัสเซีย

ปัญญาประดิษฐ์  Artificial Intelligence อักษรย่อ AI คือเครื่องจักรที่ใช้ “อัลกอริทึม” กระบวนการแก้ปัญหาที่สามารถอธิบายออกมาเป็นขั้นตอนที่ชัดเจน กระบวนการนี้ประกอบด้วยวิธีการเป็นขั้นๆ และมีส่วนที่ต้องทำแบบวนซ้ำอีก จนกระทั่งเสร็จสิ้นการทำงาน “อัลกอริทึม” ไม่ใช่คำตอบแต่เป็นชุดคำสั่งที่ทำให้ได้คำตอบ วันนี้พัฒนาการไปไกลถึงขั้นที่เรียกว่า AI Quantum  

ซึ่งนวัตกรรมใหม่นี้เป็นเพียงส่วนหนึ่งของเทคโนโลยีที่นำเอา AI Quantum เข้าไปใช้งานและคาดว่าจะเกิดขึ้นในอนาคตอย่างแน่นอน ได้แก่ 

เทคโนโลยี Crypto-Anchor และ Blockchain ซึ่งผสมผสาน เทคโนโลยี Cryptographic Anchor และนำมาใช้ควบคู่กับเทคโนโลยีกระจายข้อมูล Distributed Ledger บนเครือข่ายบล็อกเชน วิทยาการการเข้ารหัสแบบแลตทิช Lattice Cryptography ใช้เพื่อช่วยให้สามารถทำงานบนไฟล์หรือเข้ารหัสไฟล์ได้ โดยที่บรรดาแฮกเกอร์ไม่สามารถเข้าถึงข้อมูลที่ละเอียดอ่อนเหล่านี้ได้เลย กล้องจุลทรรศน์หุ่นยนต์ ใช้ตรวจสอบสภาวะของน้ำทั่วโลก สามารถติดตามข้อมูลสภาวะน้ำได้อย่างต่อเนื่อง และ Quantum Computing คอมพิวเตอร์ควอนตัมที่นักวิทยาศาสตร์และเทคโนโลยีคิดค้นเพื่อแก้ไขปัญหาที่ทวีความซับซ้อนขึ้น เหนือกว่าคอมพิวเตอร์ที่เราคุ้นเคยกันในปัจจุบัน

แวดวง AI พยายามนำ “อารมณ์และความรู้สึก” ของมนุษย์ มาปรับใช้ให้ “หุ่นยนต์ในอนาคต” มีชีวิตชีวา ทำงานแบบ “มนุษย์เสมือนจริง” แต่ทว่ายังไม่สามารถสร้าง “มนุษย์” ที่มี “จิต” และ “เจตสิก” ซึ่งสามารถเปลี่ยน “ภพ” และ “ภูมิ” ได้ ไม่สามารถเขียนโปรแกรมควบคุม “กรรม” ทาง “กาย-วาจา-ใจ” ที่เรียกว่า “บุญ” หรือ “บาป” ไม่สามารถใช้ “อัลกอริทึม” เขียนโจทย์ทำนายอนาคตว่า “มนุษย์” แต่ละคนจะมี “ศีลธรรม” ในตัวเองมากน้อยแค่ไหนเพียงใดระดับใด

“ปัญญาประดิษฐ์” ไร้ “อารมณ์-ความรู้สึก” แตกต่างจาก “ปัญญามนุษย์” ที่ขับเคลื่อนด้วย “ผัสสะ 6” และ “อายตนะ 6” กล่าวคือ “ตาดูรูป-หูฟังเสียง-จมูกดมกลิ่น-ลิ้นลิ้มรส-กายสัมผัส-ใจนึกคิด”

ประเด็นท้าทาย “การจัดการ” ในยุคดิจิทัลคือ “สมองกลที่ปราศจากจิตใจอารมณ์และความรู้สึก” กับ “สมองคนที่เต็มเปี่ยมไปด้วยอารมณ์ความรู้สึกคือกิเลส รัก โลภ โกรธ หลง” ในแง่ของ “ศีลธรรมยุค 5.0” จะไปด้วยกันได้หรือไม่?

พระไตรปิฎก ตอนหนึ่ง ในอังคุตตรนิกาย จตุกกนิบาต พระพุทธเจ้า ได้ทรงอธิบายว่า

“กรรม 4 ประการเป็นไฉน ? คือ กรรมดำมีวิบากสีดำก็มี กรรมขาวมีวิบากสีขาวก็มี กรรมทั้งดำทั้งขาวมีวิบากทั้งสีดำทั้งสีขาวก็มี กรรมไม่ดำไม่ขาวมีวิบากสีไม่ดำสีไม่ขาว ย่อมเป็นไปเพื่อความสิ้นกรรมก็มี”

“กรรมดำ” ในความหมายว่า “ฆ่า” และ “เบียดเบียน” โดยประทุษร้ายมุ่งหมายเอา “ทรัพย์สิน” ของผู้อื่นแล้ว ยังแปลว่า “กรรม” ที่ “ก่อ” แล้วมี “วิบาก” ส่งผลทำให้ “ผู้คน” เดือดร้อนวุ่นวายทั้ง “กาย” และ “ใจ”

 

ภัยคุกคามจาก AI มีผลทำให้คนตกงานเดือดร้อนวุ่นวายเครียดและกลุ้มใจนับล้านๆ คน นอกจากนี้แล้วการใช้ AI โจรกรรมฐานข้อมูลการเงินและบัตรเครดิตลูกค้าธนาคารประเทศต่างๆ ก็มีผลทำให้เกิดความเสียหายทางการเงิน มูลค่ามหึมานับล้านๆ บาท จึงต่างล้วนเป็นประเด็นที่ต้องระมัดระวังเช่นกัน

มีการคาดการณ์ว่า AI อาจเป็นภัยพิบัติทางเศรษฐกิจและสังคม ดังนั้น จึงควรเป็นเครื่องมือที่นำไปใช้โดยมนุษย์ที่มีศีลธรรม ไม่ควรตกอยู่ในอำนาจของกลุ่มคนที่ไม่มีศีลธรรม “คุณสมบัติด้านศีลธรรม” จึงควรกำหนดเป็น “มาตรฐาน” สำหรับผู้ใช้ AI โดยจำแนกออกเป็น “ระดับ”  และ “อำนาจ” การตัดสินใจใช้ เพราะ AI มีคุณและโทษ คือใช้เพื่อสร้างสรรค์ก็ได้ และใช้เพื่อทำลายล้างก็ได้

 

โจทย์วิจัยที่สำคัญต่อไปคือ AI ต้องมีคุณสมบัติสำคัญ “ไม่เห็นแก่ตัว”  ใช่หรือไม่?

และ AI ต้องมีลักษณะ “เอื้ออาทรผู้อื่น” เหมือน “มนุษย์” ที่มีจิตใจอารมณ์ความรู้สึกจริงหรือไม่?

Google เริ่มให้ความสนใจกับประเด็นนี้อย่างจริงจังโดยก่อตั้งบริษัท DeepMind พัฒนาหน่วยวิจัยจริยธรรม AI  ขึ้น ล่าสุดได้เผยแพร่ “ผลการวิจัย” เกี่ยวกับ “จริยธรรมปัญญาประดิษฐ์” 2 โครงการ

โครงการแรกมีชื่อว่า Gathering การเก็บเกี่ยว กติกาคือให้หุ่นยนต์ปัญญาประดิษฐ์ 2 ตัวแข่งกันเก็บลูกแอปเปิลดิจิทัล ได้ข้อค้นพบว่า เมื่อกำหนดให้จำนวนแอปเปิลกองกลางมีมากพอ ปัญญาประดิษฐ์ทั้ง 2 จะไม่ปะทะกันเอง แต่จะพุ่งเป้าไปที่การเก็บแอปเปิลอย่างเดียวเท่านั้น แต่เมื่อใดก็ตามที่จำนวนแอปเปิลเหลือน้อย ก็จะปะทะกันเองมากขึ้นเรื่อยๆ สิ่งที่น่าสังเกตอีกอย่างหนึ่งก็คือ ปัญญาประดิษฐ์ที่ ‘ฉลาดกว่า’ จะเลือกชนคู่ต่อสู้ ไม่ว่าจะมีแอปเปิลมากหรือน้อยก็ตาม

โครงการที่ 2 มีชื่อว่า Wolf Pack กติกาคือหุ่นยนต์ปัญญาประดิษฐ์ 2 ตัวจะต้องออกล่าเหยื่อในสภาพแวดล้อมที่มีสิ่งกีดขวางวางอยู่ทั่วไป ผลการศึกษาพบว่าหุ่นยนต์ปัญญาประดิษฐ์ทั้งคู่เรียนรู้ที่จะร่วมมือกันทำงานเพื่อให้ได้คะแนนมากที่สุด และสิ่งที่ต่างออกไปยิ่งขึ้นคือ ยิ่งหุ่นยนต์ปัญญาประดิษฐ์ฉลาดมากขึ้นเท่าไหร่ มันก็จะยิ่งร่วมมือกับหุ่นยนต์ปัญญาประดิษฐ์อีกตัวมากขึ้นเท่านั้น

นักวิจัยจึงสรุปผลการทดลองทั้งหมดว่า “ศีลธรรม” กล่าวคือ “จริยธรรม” ของ “ปัญญาประดิษฐ์” ขึ้นอยู่กับ “แรงจูงใจ”  แต่ถ้าเป็นสถานการณ์ที่ส่งเสริมให้เกิดความร่วมมือกันเพื่อผลลัพธ์ที่ดีที่สุด ปัญญาประดิษฐ์ก็ฉลาดพอที่จะทำงานร่วมกัน ตาม “สภาพแวดล้อม” รอบตัว

 ความพยายามของ Google ในการให้ความสำคัญกับจริยธรรมและผลกระทบต่อสังคมของ AI เป็นการเริ่มต้นที่ดีสำหรับหน่วยงานต่างๆ ก่อนที่ AI จะถูกพัฒนาจนเลยจุดที่มนุษย์จะควบคุมได้

เมื่อพิจารณา “ข้อค้นพบ” สิ่งที่ “ปัญญาประดิษฐ์” จะเข้ามา “ทดแทน” มนุษย์คือ “การจัดการข้อมูลมากมายมหาศาล”  ในคอมพิวเตอร์ หรือโทรศัพท์มือถือ ล้วนเป็น “สภาพแวดล้อม” ที่เต็มไปด้วยข้อมูลส่วนบุคคล ข้อมูลทางเศรษฐกิจ และข้อมูลการแพทย์ ซึ่งต่างมีความสำคัญ และเสี่ยงที่จะถูกนำไปใช้ในทางที่ไม่เหมาะสม จึงจำเป็นต้องสร้าง “แรงจูงใจ”  ที่มีบริบทคือ “สภาพแวดล้อม” ที่เอื้อต่อสภาวะ “ปลาใหญ่กินปลาเล็ก” หรือ “การปรับตัวเข้าหากัน” เพื่อ “สมดุล” ในการ “พัฒนา” ปัญญาประดิษฐ์ที่เหมาะสมต่อองค์กร

“ปัญญาประดิษฐ์” ยังมีข้อจำกัดสำคัญคือไม่สามารถคิดอ่าน ทำสมาธิ ค้นคว้าเชิงลึกไปไม่ถึงระดับ “อภิปรัชญา” กล่าวคือ Metaphysics” ซึ่งผสมผสาน ชีวิต-โลก-ภาวะเหนือธรรมชาติ และการจะไปถึง “องค์ความรู้” ระดับ “อภิปรัชญา” ที่เรียกว่า “มหัศจรรย์ทางจิต” ต้องลงมือ “ปฏิบัติ” ทำสมาธิ บำเพ็ญ “วิปัสสนา” พิจารณา กำหนด “นาม” และ “รูป”

หลักสูตร AI ที่ MIT เป็นต้น ทำได้เพียงแค่เขียนโปรแกรมใช้ “อัลกอริทึม” ชั้นสูงสั่งการให้ “สมองกล” ทำงานแก้โจทย์ยากให้แล้วเสร็จตามเป้าหมาย ทว่ายังนำความรู้เรื่อง “จิต” และ “เจตสิก” มาสร้าง “สมองกล” ให้มี “อารมณ์และความรู้สึก” เหมือนมนุษย์ไม่ได้

บิล เกตส์ ได้เคยออกมาแสดงความกังวลถึงอนาคตของ AI ว่าจะเป็นภัยคุกคามมนุษย์ แม้จะยังไม่มีใครให้คำตอบได้ชัดเจนว่า ความก้าวล้ำของปัญญาประดิษฐ์จะเป็นภัยต่อมนุษย์ในลักษณะใด มีการคาดการณ์ว่าในอนาคตการพัฒนา AI อาจก้าวไปถึงขั้นที่ทำงานได้สมบูรณ์แบบเหมือนสมองมนุษย์ AI จึงไม่จำเป็นต้องพึ่งพามนุษย์และอาจปิดกั้นระบบไม่ให้มนุษย์ควบคุมมันได้อีกต่อไป

ความรับผิดชอบในการกระทำที่เกิดจาก AI กลายเป็นประเด็นทางจริยธรรม เช่น ถ้าหากระบบที่ทำงานและตัดสินใจด้วยตัวเองเกิดความผิดพลาด ทำให้รถไร้คนขับชนคนบนถนน ใครจะเป็นผู้รับผิดชอบ “จริยธรรมประดิษฐ์” คือสิ่งที่จะเข้ามาช่วยให้ AI ใช้ความเป็นเหตุเป็นผลในการตัดสินใจโดยเฉพาะภายใต้สถานการณ์ที่มีความขัดแย้งทางจริยธรรม มนุษย์ในฐานะผู้พัฒนาต้องเริ่มให้ความสำคัญในเรื่องดังกล่าวเช่นเดียวกับการมุ่งพัฒนาศักยภาพของ AI ให้เข้าใกล้ความเป็นมนุษย์ยิ่งขึ้น

ประเด็นท้าทายคือวงการศึกษาต้องตระหนัก รับรู้ และสร้าง “คน” ที่มี “ศีลธรรม” และ “คุณธรรม”  ตระหนักถึง “จริยธรรม” ที่สำคัญและจำเป็นในการออกแบบ “ปัญญาประดิษฐ์” ที่ทำงานด้วยระบบประมวลผลที่มีเป้าหมายกอปรด้วยคุณธรรม และจริยธรรม มิได้มุ่งเน้นไปในทางที่มากด้วย “โลภ-โกรธ-หลง” ก่อให้เกิด “ภัยคุกคาม” หรือ “ภัยพิบัติ” ต่อมวลมนุษยชาติ !


ภาพ: กองบรรณาธิการ

เรื่อง: ศาสตราจารย์ ดร.อุทิศ ศิริวรรณ
ผู้อำนวยการโครงการปริญญาเอกทวิปริญญา
DBA & PhD in Business Administration, Charisma University,
TC & Apollos University, MT, USA

Rate this item
(1 Vote)
Last modified on Wednesday, 05 February 2020 08:57
X

Right Click

No right click