ปัญญาประดิษฐ์ (AI) เป็นอันตรายหรือไม่?
ในวันจันทร์(Monday)ที่22 พฤษภาคม(May 22) 2023 บัญชี Twitter ที่ได้รับการยืนยัน ชื่อ “Bloomberg Feed” ได้แชร์ทวีตโดยอ้างว่ามีเหตุระเบิดที่เพนตากอน(explosion at the Pentagon)พร้อมด้วยรูปภาพ หากคุณสงสัยว่าสิ่งนี้เกี่ยวข้องกับปัญญาประดิษฐ์ (AI) ภาพดังกล่าวเป็นภาพที่สร้างขึ้นโดย AI โดยทวีตดังกล่าวแพร่ระบาดอย่างรวดเร็วและจุดประกายให้ตลาดหุ้นตกต่ำในช่วงสั้นๆ สิ่งต่าง ๆ อาจเลวร้ายกว่านี้มาก - เป็นเครื่องเตือนใจถึงอันตรายของปัญญาประดิษฐ์
อันตรายจากปัญญาประดิษฐ์
ไม่ใช่แค่ข่าวปลอมที่เราต้องกังวล มีความเสี่ยงที่เกิดขึ้นทันทีหรือที่อาจเกิดขึ้นที่เกี่ยวข้องกับ AI ตั้งแต่ที่เกี่ยวข้องกับความเป็นส่วนตัวและความปลอดภัยไปจนถึงปัญหาอคติและลิขสิทธิ์ เราจะเจาะลึกถึงอันตรายของปัญญาประดิษฐ์เหล่านี้ ดูสิ่งที่กำลังดำเนินการเพื่อลดความเสี่ยงทั้งในปัจจุบันและในอนาคต และถามว่าความเสี่ยงของ AI มีมากกว่าผลประโยชน์หรือไม่
ข่าวปลอม
ย้อนกลับไปเมื่อ Deepfakes เข้ามาครั้งแรก ก็มีความกังวลเกิดขึ้นว่าอาจถูกนำไปใช้โดยมีเจตนาร้าย สิ่งเดียวกันนี้อาจกล่าวได้สำหรับคลื่นลูกใหม่ของเครื่องสร้างภาพ AI(AI image generators)เช่นDALL-E(DALL-E 2) 2 , MidjourneyหรือDreamStudio เมื่อวันที่ 28 มีนาคม(March 28) 2023 ภาพปลอมของสมเด็จพระสันตะปาปาฟ(AI-generated images of Pope Francis)รานซิสสวมแจ็กเก็ตปักเป้าBalenciagaสีขาว ที่สร้างโดย AI และเพลิดเพลินกับการผจญภัยหลายครั้ง รวมถึงการเล่นสเก็ตบอร์ดและการเล่นโป๊กเกอร์กลายเป็นกระแสไวรัล เว้นแต่คุณจะศึกษาภาพอย่างใกล้ชิด เป็นการยากที่จะแยกแยะภาพเหล่านี้จากของจริง
แม้ว่าตัวอย่างกับสมเด็จพระสันตะปาปาจะดูน่าสนุกไม่น้อย แต่ภาพ (และทวีตประกอบ) เกี่ยวกับเพนตากอน(Pentagon)กลับเป็นเพียงอย่างอื่น ภาพ ปลอม(Fake)ที่สร้างโดย AI มีอำนาจในการทำลายชื่อเสียง ยุติการแต่งงานหรืออาชีพการงาน สร้างความไม่สงบทางการเมือง และอาจถึงขั้นเริ่มต้นสงครามหากใช้โดยคนผิด กล่าวโดยสรุป รูปภาพที่สร้างโดย AI เหล่านี้มีศักยภาพที่จะเป็นอันตรายอย่างมากหากนำไปใช้ในทางที่ผิด
ขณะนี้โปรแกรมสร้างภาพ AI เปิดให้ทุกคนใช้งานได้อย่างอิสระ และPhotoshop ได้เพิ่มโปรแกรมสร้างภาพ AI(Photoshop adding an AI image generator )ให้กับซอฟต์แวร์ยอดนิยม โอกาสในการจัดการภาพและสร้างข่าวปลอมจึงยิ่งใหญ่กว่าที่เคย
ความเป็นส่วนตัว ความปลอดภัย และการแฮ็ก
ความเป็นส่วนตัวและความปลอดภัยยังเป็นข้อกังวลอย่างมากเมื่อพูดถึงความเสี่ยงของ AI โดยมีหลายประเทศที่แบนChatGPT ของ OpenAI แล้ว อิตาลี(Italy)ได้สั่งห้ามโมเดลนี้เนื่องจากปัญหาความเป็นส่วนตัว โดยเชื่อว่าไม่เป็นไปตามกฎระเบียบคุ้มครองข้อมูลทั่วไปของยุโรป( GDPR(General Data Protection Regulation) ) ใน(GDPR)ขณะที่ รัฐบาล จีน(China)เกาหลีเหนือ(North Korea)และรัสเซียสั่งห้ามเนื่องจากกลัวว่าจะเผยแพร่ข้อมูลที่ไม่ถูกต้อง
เหตุใดเราจึงกังวลเรื่องความเป็นส่วนตัวเมื่อพูดถึง AI แอปและระบบ AI(AI apps)รวบรวมข้อมูลจำนวนมากเพื่อเรียนรู้และคาดการณ์ แต่ข้อมูลนี้ถูกจัดเก็บและประมวลผลอย่างไร? มีความเสี่ยงอย่างแท้จริงที่ข้อมูลจะถูกละเมิด การแฮ็ก และข้อมูลตกไปอยู่ในมือของผู้ไม่หวังดี
ไม่ใช่แค่ข้อมูลส่วนบุคคลของเราเท่านั้นที่มีความเสี่ยงเช่นกัน การแฮ็ก AI ถือเป็นความเสี่ยงอย่างแท้จริง — มันยังไม่เกิดขึ้น แต่หากผู้ที่มีเจตนาร้ายสามารถแฮ็กเข้าสู่ระบบ AI ได้ ก็อาจส่งผลร้ายแรงตามมา ตัวอย่างเช่น แฮกเกอร์สามารถควบคุมยานพาหนะไร้คนขับ แฮ็กระบบรักษาความปลอดภัย AI เพื่อเข้าถึงสถานที่ที่มีความปลอดภัยสูง และแม้แต่แฮ็กระบบอาวุธที่มีการรักษาความปลอดภัยด้วย AI
ผู้เชี่ยวชาญจากสำนักงาน(Agency)โครงการ(Projects)วิจัยขั้นสูงด้านกลาโหม(Defense Advanced Research) ( DARPA ) ของ (DARPA)กระทรวง(US Department)กลาโหม สหรัฐฯ ตระหนักถึงความเสี่ยงเหล่านี้ และกำลังทำงานใน โครงการ รับประกันความทนทานต่อ AI ต่อการหลอกลวง(Guaranteeing AI Robustness Against Deception) ( GARD ) ของDARPA อยู่แล้ว เพื่อแก้ไขปัญหาตั้งแต่เริ่มต้น เป้าหมายของโครงการคือเพื่อให้แน่ใจว่าการต่อต้านการแฮ็กและการปลอมแปลงนั้นถูกสร้างขึ้นในอัลกอริทึมและ AI
การละเมิดลิขสิทธิ์
อันตรายอีกประการหนึ่งของ AI คือการละเมิดลิขสิทธิ์ สิ่งนี้อาจฟังดูไม่ร้ายแรงเท่ากับอันตรายอื่นๆ ที่เรากล่าวถึง แต่การพัฒนาโมเดล AI เช่นGPT-4ทำให้ทุกคนมีความเสี่ยงที่จะถูกละเมิดเพิ่มขึ้น
ทุกครั้งที่คุณขอให้ChatGPTสร้างบางอย่างให้กับคุณ ไม่ว่าจะเป็นบล็อกโพสต์เกี่ยวกับการท่องเที่ยวหรือชื่อใหม่สำหรับธุรกิจของคุณ คุณกำลังป้อนข้อมูลซึ่งจะใช้ในการตอบคำถามในอนาคต ข้อมูลที่ป้อนกลับไปยังคุณอาจละเมิดลิขสิทธิ์ของบุคคลอื่น ซึ่งเป็นเหตุผลว่าทำไมการใช้เครื่องตรวจจับการลอกเลียนแบบและแก้ไขเนื้อหาใด ๆ ที่สร้างโดย AI ก่อนที่จะเผยแพร่จึงเป็นเรื่องสำคัญมาก
อคติทางสังคมและข้อมูล
AI ไม่ใช่มนุษย์ จึงไม่สามารถลำเอียงได้ใช่ไหม? ผิด. ผู้คนและข้อมูลถูกใช้เพื่อฝึกโมเดล AI และแชทบอท(chatbots)ซึ่งหมายความว่าข้อมูลหรือบุคลิกภาพที่มีอคติจะส่งผลให้เกิด AI ที่มีอคติ อคติใน AI มีสองประเภท: อคติทางสังคมและอคติข้อมูล
ด้วยอคติมากมายที่เกิดขึ้นในสังคมทั่วไป จะเกิดอะไรขึ้นเมื่ออคติเหล่านี้กลายเป็นส่วนหนึ่งของ AI โปรแกรมเมอร์ที่รับผิดชอบในการฝึกอบรมโมเดลอาจมีความคาดหวังที่ไม่แน่นอน ซึ่งจากนั้นจะเข้าสู่ระบบ AI
หรือข้อมูลที่ใช้ในการฝึกอบรมและพัฒนา AI อาจไม่ถูกต้อง มีอคติ หรือรวบรวมโดยไม่สุจริต สิ่งนี้นำไปสู่อคติด้านข้อมูล ซึ่งอาจเป็นอันตรายได้พอๆ กับอคติทางสังคม ตัวอย่างเช่น หากระบบการจดจำใบหน้าได้รับการฝึกฝนโดยใช้ใบหน้าของคนผิวขาวเป็นหลัก ระบบอาจประสบปัญหาในการจดจำใบหน้าจากชนกลุ่มน้อย ซึ่งจะทำให้การกดขี่ดำเนินต่อไป
หุ่นยนต์เข้ามาแย่งงานของเรา
การพัฒนาแชทบอท เช่นChatGPTและGoogle Bardได้เปิดความกังวลใหม่เกี่ยวกับ AI: ความเสี่ยงที่หุ่นยนต์(robots )จะมาแย่งงานของเรา เราเห็นแล้วว่านักเขียนในอุตสาหกรรมเทคโนโลยีถูกแทนที่ด้วย AI นักพัฒนาซอฟต์แวร์กังวลว่าพวกเขาจะตกงานให้กับบอท และบริษัทต่างๆ ที่ใช้ ChatGPT เพื่อ(ChatGPT)สร้างเนื้อหาบล็อกและเนื้อหาโซเชียลมีเดีย แทนที่จะจ้างนักเขียนที่เป็นมนุษย์
ตามรายงานอนาคตของงานปี 2020 ของ World Economic Forum(World Economic Forum’s The Future of Jobs Report 2020)คาดว่า AI จะแทนที่งาน 85 ล้านตำแหน่งทั่วโลกภายในปี 2568 แม้ว่า AI จะไม่มาแทนที่นักเขียน แต่หลายๆ คนก็ใช้ AI เป็นเครื่องมือไปแล้ว ผู้ที่อยู่ในงานที่เสี่ยงต่อการถูกแทนที่ด้วย AI อาจต้องปรับตัวเพื่อความอยู่รอด ตัวอย่างเช่น นักเขียนอาจกลายเป็นวิศวกรพร้อมท์ของ AI ทำให้พวกเขาทำงานกับเครื่องมืออย่าง ChatGPT สำหรับการสร้างเนื้อหา แทนที่จะถูกแทนที่ด้วยโมเดลเหล่า(ChatGPT)นี้
ความเสี่ยงด้าน AI ที่อาจเกิดขึ้นในอนาคต
สิ่งเหล่านี้ล้วนเป็นความเสี่ยงที่เกิดขึ้นในทันทีหรือใกล้จะเกิดขึ้น แต่อันตรายจาก AI ที่มีโอกาสน้อยแต่ยังคงเป็นไปได้ที่เราจะได้เห็นในอนาคตล่ะ ซึ่งรวมถึงสิ่งต่างๆ เช่น AI ที่ถูกตั้งโปรแกรมให้ทำร้ายมนุษย์ เช่น อาวุธอัตโนมัติที่ถูกฝึกให้ฆ่าระหว่างสงคราม
จากนั้นก็มีความเสี่ยงที่ AI จะสามารถมุ่งความสนใจไปที่เป้าหมายที่ตั้งโปรแกรมไว้อย่างมุ่งมั่น โดยพัฒนาพฤติกรรมการทำลายล้างในขณะที่พยายามบรรลุเป้าหมายนั้นไม่ว่าจะต้องแลกมาด้วยค่าใช้จ่ายใดก็ตาม แม้ว่ามนุษย์จะพยายามหยุดไม่ให้สิ่งนี้เกิดขึ้นก็ตาม
Skynetสอนเราว่าจะเกิดอะไรขึ้นเมื่อ AI มีความรู้สึก อย่างไรก็ตาม แม้ว่าBlake Lemoineวิศวกรของ Google(Google)อาจพยายามโน้มน้าวทุกคนว่าLaMDA ซึ่งเป็นโปรแกรมสร้างแชทบอทอัจฉริยะของ Google นั้น(LaMDA, Google’s artificially intelligent chatbot generator was sentient)กลับมาใช้งานได้อีกครั้งในเดือนมิถุนายน 2022(June 2022)แต่ก็โชคดีที่ยังไม่มีหลักฐานใดที่บ่งชี้ว่าเป็นความจริง
ความท้าทายของการควบคุม AI
ในวันจันทร์ที่ 15 พฤษภาคม 2559 Sam Altman ซีอีโอของ OpenAI เข้าร่วมการพิจารณาของรัฐสภาครั้งแรกเกี่ยวกับปัญญาประดิษฐ์(OpenAI CEO Sam Altman attended the first congressional hearing on artificial intelligence)โดยเตือนว่า "หากเทคโนโลยีนี้ผิดพลาด มันก็อาจผิดพลาดได้ทีเดียว" OpenAI CO(OpenAI CO)แสดงให้เห็นชัดเจนว่าเขาชอบกฎระเบียบและนำแนวคิดของเขาเองมากมายมารับฟัง ปัญหาคือ AI กำลังพัฒนาอย่างรวดเร็ว เป็นการยากที่จะทราบว่าจะเริ่มจากการควบคุมอย่างไร
สภาคองเกรส(Congress)ต้องการหลีกเลี่ยงการทำผิดพลาดแบบเดิมๆ ที่เกิดขึ้นในช่วงต้นยุคโซเชียลมีเดีย และทีมผู้เชี่ยวชาญร่วมกับผู้นำเสียงข้างมากในวุฒิสภา ชัค ชูเมอร์(Senate Majority Leader Chuck Schumer)กำลังทำงานเกี่ยวกับกฎระเบียบที่จะกำหนดให้บริษัทต่างๆ ต้องเปิดเผยแหล่งข้อมูลที่พวกเขาใช้ในการฝึกอบรมแบบจำลองและใคร ฝึกฝนพวกเขา อาจต้องใช้เวลาสักพักกว่าที่ AI จะถูกควบคุมจะชัดเจน และไม่ต้องสงสัยเลยว่าบริษัท AI จะต้องตอบโต้กลับอย่างแน่นอน
ภัยคุกคาม(Threat)ของปัญญาประดิษฐ์ทั่วไป(Artificial General Intelligence)
นอกจากนี้ยังมีความเสี่ยงในการสร้างปัญญาประดิษฐ์ทั่วไป ( AGI ) ที่สามารถบรรลุภารกิจใดๆ ที่มนุษย์ (หรือสัตว์) สามารถทำได้ มัก(Often)ถูกกล่าวถึงในภาพยนตร์ไซไฟ เราอาจยังห่างไกลจากการสร้างสรรค์เช่นนี้มาหลายทศวรรษ แต่ถ้าเราสร้าง AGI ขึ้นมาเมื่อไหร่ก็(AGI)อาจเป็นภัยคุกคามต่อมนุษยชาติได้
บุคคลสาธารณะจำนวนมากสนับสนุนความเชื่อที่ว่า AI ก่อให้เกิดภัยคุกคามต่อมนุษย์ รวมถึงStephen Hawking , Bill Gatesและแม้แต่Eric Schmidt อดีต CEO ของ Google(Google CEO Eric Schmidt)ซึ่งกล่าวว่า “ปัญญาประดิษฐ์อาจก่อให้เกิดความเสี่ยงต่อการดำรงอยู่ และรัฐบาลจำเป็นต้องรู้วิธีทำให้แน่ใจ เทคโนโลยีไม่ได้ถูกนำไปใช้ในทางที่ผิดโดยคนชั่วร้าย”
ปัญญาประดิษฐ์เป็นอันตรายหรือไม่ และความเสี่ยงมีมากกว่าผลประโยชน์หรือไม่? คณะลูกขุนยังคงตัดสินเรื่องนั้น แต่เราได้เห็นหลักฐานของความเสี่ยงบางอย่างรอบตัวเราแล้วในตอนนี้ อันตรายอื่นๆ ไม่น่าจะเกิดขึ้นได้ในเร็วๆ นี้ หากเป็นเช่นนั้น แต่มีสิ่งหนึ่งที่ชัดเจน: ไม่ควรมองข้ามอันตรายของ AI สิ่งสำคัญที่สุดคือเราต้องแน่ใจว่า AI ได้รับการควบคุมอย่างเหมาะสมตั้งแต่เริ่มแรก เพื่อลดและหวังว่าจะลดความเสี่ยงในอนาคต
Related posts
วิธีการนำเข้าหรือส่งออกงานจาก Task Scheduler ใน Windows 11/10
วิธีเปิดหรือปิดใช้งานงานตามกำหนดการใน Windows 11/10
วิธีสร้างงานอัตโนมัติโดยใช้ Task Scheduler ใน Windows 11/10
วิธีกำหนดเวลาจุดคืนค่าระบบใน Windows 11/10
กำหนดเวลาปิดเครื่องหรือรีสตาร์ทโดยใช้ Task Scheduler ใน Windows 11/10
วิธีตรวจสอบบันทึกการปิดระบบและการเริ่มต้นระบบใน Windows 11/10
แก้ไข Crypt32.dll ไม่พบหรือไม่มีข้อผิดพลาดใน Windows 11/10
การตั้งค่าการซิงค์ไม่ทำงานหรือเป็นสีเทาใน Windows 11/10
วิธีเปลี่ยนเว็บแคมเริ่มต้นในคอมพิวเตอร์ Windows 11/10
วิธีสร้างงานพื้นฐานด้วย Task Scheduler ใน 5 ขั้นตอน
วิธีปิดการใช้งานโปรแกรมเริ่มต้นใน Windows 11/10
วิธีตรวจสอบว่ากระบวนการทำงานเป็นผู้ดูแลระบบใน Windows 11/10 . หรือไม่
Microsoft Intune ไม่ซิงค์? บังคับให้ Intune ซิงค์ใน Windows 11/10
วิธีหน่วงเวลางานที่กำหนดเวลาไว้ใน Task Scheduler ใน Windows 11/10
วิธีแสดงบานหน้าต่างรายละเอียดใน File Explorer ใน Windows 11/10
7 สิ่งที่คุณสามารถทำได้ด้วยงานที่มีอยู่จาก Task Scheduler
อัปเดต Windows Defender เมื่อปิดใช้งานการอัปเดตอัตโนมัติ
วิธีเปิดคุณสมบัติของระบบในแผงควบคุมใน Windows 11/10
วิธีเปลี่ยนชื่องาน Windows ที่สร้างด้วย Task Scheduler
วิธีกำหนดเวลาคำสั่ง ForFiles บนไดรฟ์เครือข่ายที่ใช้ร่วมกัน