ชัยชนะของ Google Go แสดงให้เห็นว่าความคิดของ AI ไม่สามารถคาดเดาได้ และนั่นเป็นเรื่องที่น่ากังวล

ชัยชนะของ Google Go แสดงให้เห็นว่าความคิดของ AI ไม่สามารถคาดเดาได้ และนั่นเป็นเรื่องที่น่ากังวล

มนุษย์ได้รับการตีจากคอมพิวเตอร์เมื่อเร็ว ๆ นี้ ความพ่ายแพ้ 4-1ของปรมาจารย์ลีเซดอลของ Go โดยปัญญาประดิษฐ์AlphaGo ( AI ) ของ Google เป็นเพียงการแสวงหาครั้งล่าสุดในการแสวงหาเทคโนโลยีที่มีชัยชนะเหนือมนุษยชาติ รถยนต์ที่ขับเองนั้นมีโอกาสเกิดอุบัติเหตุน้อยกว่าคนขับโดยมนุษย์ อยู่แล้ว แบบทดสอบรายการทีวีอันตราย! เป็นสาเหตุของการสูญหาย และในหมากรุก มนุษย์ต้องสูญเสียคอมพิวเตอร์ไปอย่างฉิวเฉียดจน โทรศัพท์มือถือชนะการแข่งขันระดับนานาชาติเมื่อเร็วๆนี้

มีความรู้สึกที่แท้จริงว่าการแข่งขันระหว่างมนุษย์กับ AI Go ของ

เดือนนี้ถือเป็นจุดเปลี่ยน Go ได้รับการจัดให้อยู่ในระดับที่ต้องการของสัญชาตญาณของมนุษย์และการจดจำรูปแบบซึ่งควรอยู่นอกเหนือพลังของคอมพิวเตอร์ที่มีการคำนวณตัวเลข

ชัยชนะของ AlphaGo เหนือหนึ่งในผู้เล่นที่ดีที่สุดของโลกได้จุดประกายความกลัวต่อการประยุกต์ใช้การเรียนรู้เชิงลึกและ AI ที่แพร่หลายในอนาคตของเรา ความกลัวที่ Elon Musk แสดงออกอย่างมีชื่อเสียงว่าเป็น “ภัยคุกคามที่ยิ่งใหญ่ที่สุดของเรา ”

เราควรถือว่า AI เป็นภัยคุกคามด้วยเหตุผลสองประการ แต่มีแนวทางที่เราสามารถทำได้เพื่อลดภัยคุกคามนั้นให้เหลือน้อยที่สุด ปัญหาแรกคือ AI มักจะได้รับการฝึกฝนโดยใช้การผสมผสานระหว่างตรรกะและฮิวริสติก และการเรียนรู้แบบเสริมแรง

ส่วนลอจิกและฮิวริสติกมีผลที่คาดเดาได้อย่างสมเหตุสมผล: เราตั้งโปรแกรมกฎของเกมหรือปัญหาลงในคอมพิวเตอร์ รวมถึงแนวทางที่มนุษย์เชี่ยวชาญ จากนั้นใช้พลังการถอดรหัสตัวเลขของคอมพิวเตอร์เพื่อคิดให้ล้ำหน้ากว่าที่มนุษย์จะทำได้

นี่คือวิธีการทำงานของโปรแกรมหมากรุกยุคแรก ในขณะที่พวกเขาเล่นหมากรุกน่าเกลียด มันก็เพียงพอแล้วที่จะชนะ

เราให้คอมพิวเตอร์ทำงาน เช่น เล่น Go เป็นต้น ซ้ำๆ มันปรับเปลี่ยนกลยุทธ์ในแต่ละครั้งและเรียนรู้การเคลื่อนไหวที่ดีที่สุดจากผลลัพธ์ของการเล่น

เพื่อไม่ให้ต้องเล่นงานมนุษย์อย่างหมดแรง จึงทำได้โดยเล่นคอมพิวเตอร์แข่งกับตัวมันเอง AlphaGo เล่นเกม Go หลายล้านเกม – มากกว่าที่มนุษย์ทุกคนเคยมี

ปัญหาคือ AI จะสำรวจพื้นที่ทั้งหมดของการเคลื่อนไหวและกลยุทธ์

ที่เป็นไปได้ในแบบที่มนุษย์ไม่เคยทำ และเราไม่มีข้อมูลเชิงลึกเกี่ยวกับวิธีการที่จะได้รับจากการสำรวจนั้น ในเกมที่สองระหว่าง Lee Se-Dol และ AlphaGo AI ได้เคลื่อนไหวอย่างน่าประหลาดใจ – “ ไม่ใช่การเคลื่อนไหวของมนุษย์ ” ในคำพูดของผู้วิจารณ์ – ซึ่ง Lee Se-Dol ต้องออกจากห้องเป็นเวลา 15 นาทีเพื่อฟื้นความสงบ .

นี่เป็นลักษณะเฉพาะของการเรียนรู้ของเครื่อง เครื่องจักรไม่ถูกจำกัดโดยประสบการณ์หรือความคาดหวังของมนุษย์

จนกว่าเราจะได้เห็น AI ทำในสิ่งที่ไม่คาดคิด เราไม่รู้ด้วยซ้ำว่าเรามีมุมมองที่จำกัดเกี่ยวกับความเป็นไปได้ AI ก้าวข้ามขีดจำกัดจินตนาการของมนุษย์อย่างง่ายดาย

ในแอปพลิเคชันในโลกแห่งความเป็นจริง ขอบเขตของ AI ที่น่าประหลาดใจนั้นกว้างกว่ามาก ตัวอย่างเช่น AI ในการซื้อขายหุ้นจะคิดค้นวิธีการใหม่ทั้งหมดที่เรารู้จักเพื่อเพิ่มผลตอบแทนจากการลงทุนให้สูงสุด จะพบหลายอย่างที่เรายังไม่รู้จัก

น่าเสียดายที่หลายวิธีในการเพิ่มผลตอบแทนสูงสุดจากหุ้น เช่น การสนับสนุนการเสนอราคา การซื้อขายที่ประสานกัน และอื่นๆ ถือเป็นการยักย้ายราคาที่ผิดกฎหมายและผิดจรรยาบรรณ

คุณจะป้องกันไม่ให้ AI ใช้วิธีการดังกล่าวได้อย่างไร ในเมื่อคุณไม่รู้ว่าวิธีการของมันคืออะไร? โดยเฉพาะอย่างยิ่งเมื่อวิธีที่มันใช้ ผิดจรรยาบรรณ ผู้ค้ามนุษย์อาจยังไม่ค้นพบ

เป็นเรื่องตลกที่จะคิดว่าเราจะสามารถทำนายหรือจัดการพฤติกรรมที่เลวร้ายที่สุดของ AI เมื่อเราไม่สามารถจินตนาการถึงพฤติกรรมที่น่าจะเป็นได้

ปัญหาของจริยธรรม

สิ่งนี้นำเราไปสู่ปัญหาที่สอง แม้แต่ AI ธรรมดาๆ ก็ยังจำเป็นต้องประพฤติตนอย่างมีจริยธรรมและศีลธรรม หากเพียงเพื่อกันผู้ปฏิบัติงานออกจากคุก

ในการศึกษาทางจิตวิทยาบางอย่างเกี่ยวกับปัญหารถเข็นมนุษย์ที่เลือกที่จะพลิกสวิตช์พบว่ามีความบกพร่องทางอารมณ์และได้คะแนนสูงกว่าในมาตรการทางจิตเวช ซึ่งนิยามในกรณีนี้คือ “รูปแบบบุคลิกภาพที่มีลักษณะการเห็นอกเห็นใจผู้อื่นต่ำ แสวงหาความตื่นเต้น”.

นี่เป็นแนวทางสำคัญในการจัดการกับ AI เราจำเป็นต้องเข้าใจและเข้าใจว่าไม่ว่าพวกเขาจะเลียนแบบหรือทำได้ดีกว่ามนุษย์เพียงใด พวกเขาก็จะไม่มีวันเห็นอกเห็นใจหรือมีศีลธรรมจากภายในที่ทำให้วัตถุที่เป็นมนุษย์เลือกที่จะไม่พลิกสวิตช์

ศีลธรรมบอกเราว่าเราไม่อาจใช้ชีวิตที่ไร้เดียงสา แม้ว่าเส้นทางนั้นจะส่งผลดีต่อจำนวนที่มากที่สุดก็ตาม

เช่นเดียวกับผู้ที่ต่อต้านสังคมและโรคจิต AI อาจสามารถเรียนรู้ที่จะเลียนแบบพฤติกรรมที่เห็นอกเห็นใจและมีจริยธรรม แต่เราไม่ควรคาดหวังว่าจะมีพลังทางศีลธรรมใดๆ ที่สนับสนุนพฤติกรรมนี้ หรืออาจขัดขวางการตัดสินใจที่ไร้ประโยชน์อย่างแท้จริง

กฎที่ดีสำหรับการใช้ AI คือ: “ฉันจะให้อัจฉริยะทางสังคมวิทยารับผิดชอบกระบวนการนี้หรือไม่”

กฎนี้มีสองส่วน เราจำแนกลักษณะ AI ว่าเป็นโรคจิตเภท ในแง่ของการไม่มีข้อจำกัดทางศีลธรรมหรือความเห็นอกเห็นใจอย่างแท้จริง และเราแสดงลักษณะพวกเขาว่าเป็นอัจฉริยะและสามารถดำเนินการที่เราไม่สามารถคาดเดาได้

เล่นหมากรุกและไป? อาจจะ. ซื้อขายในตลาดหลักทรัพย์? การศึกษาในสวิสชิ้นหนึ่งพบว่าผู้ค้าในตลาดหุ้นมีความคล้ายคลึงกันกับโรคจิตที่ได้รับการรับรองแม้ว่านั่นจะไม่ใช่สิ่งที่ดีก็ตาม

แต่คุณต้องการให้ AI ดูแลคุณยายของคุณหรือดูแลโดรน Predator ไหม

มีเหตุผลที่ดีว่าทำไมจึงมีการถกเถียงกันอย่างรุนแรงเกี่ยวกับความจำเป็นที่มนุษย์ต้องเข้ามามีส่วนร่วมในระบบสงครามอัตโนมัติแต่เราไม่ควรมองข้ามโอกาสที่จะเกิดภัยพิบัติในพื้นที่ที่อันตรายน้อยกว่าซึ่ง AI กำลังจะถูกนำไปใช้งาน

Credit : สล็อตเว็บตรง