AI สามารถเป็นพลังที่ดีหรือเลวในสังคมได้ ดังนั้นทุกคนต้องมีส่วนร่วมในการรู้รู้รูปแบบมัน ไม่ใช่เพียง ‘คนเทคโนโลยี’ เท่านั้น
แม้ว่านักออกแบบจะมีอำนาจมาก แต่ AI ก็เป็นเพียงเครื่องมือที่ถูกสร้างขึ้นเพื่อประโยชน์ของเรา ชุมชนต้องรับผิดชอบในการให้แน่นอนว่าเรื่องนี้เกิดขึ้น
พลังของการประดิษฐ์ สาหร่าย ปฏิวัติ การไม่รับผิดชอบ สร้างประสิทธิภาพ อันตราย คำเหล่านี้ถูกใช้เพื่ออธิบายประสิทธิภาพการใช้ประโยชน์ของปัจจัยเทคโนโลยีที่ประเทศมาหลายเดือน การปล่อย ChatGPT ให้สาธารณะทำให้ AI ต้องไปอยู่ในแสงสว่าง และมีผู้คนจำนวนมากที่กำลังกังวล: มันแตกต่างจากเทคโนโลยีอื่นอย่างไร และเมื่อวิธีการที่เราทำธุรกิจและใช้ชีวิตเปลี่ยนไปทั้งหมดจะเกิดอะไรขึ้น
ก่อนอื่น สิ่งสำคัญคือการรับรู้ว่า AI เป็นเพียงเครื่องมือ มีเทคโนโลยีที่ถูกสร้างขึ้นโดยมนุษย์ และดังนั้นจะได้รับผลกระทบจากความเชื่อและข้อจำกัดของมนุษย์ ได้รับการแสดงให้เห็นว่า AI ถูกกำหนดให้เป็นเทคโนโลยีที่สามารถสอนตนเองแบบสมบูรณ์ได้ แต่ในความเป็นจริงมันขึ้นอยู่กับกฎเกณฑ์ที่ถูกสร้างเข้าไปในการออกแบบ ตัวอย่างเช่น เมื่อฉันถาม ChatGPT “ประเทศใดมีข้าวสวยจีนที่ดีที่สุด?” มันจะตอบว่า “เป็นตัวแบบภาษา AI ฉันไม่มีความเห็นส่วนบุคคล แต่ฉันสามารถให้ข้อมูลได้ ในที่สุด คำถามเกี่ยวกับประเทศไหนที่มีข้าวสวยจีนที่ดีที่สุดเป็นเรื่องส่วนบุคคลและขึ้นอยู่กับความชอบของแต่ละบุคคล คนที่ต่างก็อาจมีความคิดเห็นที่แตกต่างกันอิงตามพื้นฐานวัฒนธรรมความชอบใจหรือประสบการณ์ของพวกเขา”
นี้เป็นการสะท้อนถึงการเลือกออกแบบโดยเจตนาของผู้โปรแกรม AI ที่ต้องการป้องกันโปรแกรม AI ไม่ให้ให้คำตอบเฉพาะเรื่องในเรื่องของความคิดเห็นวัฒนธรรม ผู้ใช้ ChatGPT อาจถามโมเดลเรื่องความเห็นเกี่ยวกับเรื่องที่ขัดแย้งกันมากกว่าจานข้าวหนึ่ง แต่เนื่องจากการเลือกออกแบบนี้ พวกเขาจะได้รับการตอบสนองที่คล้ายกัน ในรอบหลัง ๆ ChatGPT ได้ปรับโค้ดของตนเพื่อตอบสนองต่อการถูกกล่าวหาและตัวอย่างเรื่องเพศและเชื้อชาติในการตอบสนองของผลิตภัณฑ์ เราควรมีความคาดหวังและต้องการให้นักพัฒนามีมาตรฐานสูง และคาดหวังการตรวจสอบและสมดุลในเครื่องมือ AI ควรต้องการให้กระบวนการการกำหนดขอบเขตเหล่านี้เป็นที่ร่วมมือและเป็นส่วนหนึ่งของโปรแกรม
ในขณะที่นักออกแบบมีอำนาจในการกำหนดวิธีการทำงานของเครื่องมือ AI นักอุตสาหกรรม หน่วยงานของรัฐ และองค์กรไม่แสวงหาผลลัพธ์ในการเลือกเมื่อและวิธีในการปรับใช้ระบบ AI ของพวกเขา การสร้างสรรค์ AI อาจทำให้เราประทับใจด้วยความสามารถในการสร้างรูปภาพของหัวข้อต่าง ๆ เช่น ภาพถ่ายหัวโปสเตอร์ วางแผนวันหยุดพักผ่อน สร้างงานนำเสนอ และแม้แม้ที่จะเขียนโค้ดใหม่ แต่ก็ไม่ได้หมายความว่ามันสามารถแก้ไขปัญหาทุกปัญหาได้ ถึงแม้จะมีความฮาโปในเทคโนโลยี ผู้ที่ตัดสินใจวิธีการใช้ AI ควรถามสมาชิกในชุมชนที่ได้รับผลกระทบก่อนทั้งหมด: “ความต้องการของคุณคืออะไร?” และ “ความฝันของคุณคืออะไร?” คำตอบของคำถามเหล่านี้ควรจะเป็นแนวข้อจำกัดที่นักพัฒนาจะต้องนำมาใช้และควรจะส่งผลต่อการตัดสินใจว่าจะใช้ AI หรือไม่และวิธีที่จะใช้มันอย่างไร
ในช่วงต้นปี 2023 แอปสุขภาพจิต Koko ได้ “ทดสอบ GPT-3 ในการให้คำปรึกษาให้กับ 4,000 คน แต่ยกเลิกการทดสอบเนื่องจาก ‘รู้สึกเหมือนสถานการณ์ปลอดภัย'” ได้เกิดขึ้นได้รวดเร็วว่าชุมชนที่ได้รับผลกระทบไม่ต้องการโปรแกรม AI แทนนักจิตวิทยาที่ถูกฝึกฝน แม้ว่าการสนทนาเกี่ยวกับ AI อาจจะเป็นที่สามารถประจาประจำ การใช้งานของมันไม่ได้และไม่จำเป็นต้องใช้งาน ผลที่เกิดขึ้นจากการรีบร้อนในการพึ่งพาระบบ AI เพื่อให้บริการด้านการแพทย์ การกำหนดลำดับความสำคัญสำหรับที่อยู่อาศัย หรือเครื่องมือการสรรหาและสรรหางานสำหรับบริษัท อาจก่อให้เกิดความเสียหาย และทำให้เกิดความเสียหายอย่างกว้างขวาง ผู้ที่พิจารณาวิธีการใช้ควรรับรู้ว่าการตัดสินใจที่จะไม่ใช้ AI มีพลังและไม่แพ้กับการตัดสินใจที่จะใช้ AI
อยู่ใต้พื้นฐานของปัญหาเหล่านี้คือคำถามพื้นฐานเกี่ยวกับคุณภาพข้อมูลที่ขับเคลื่อน AI และการเข้าถึงเทคโนโลยี ในแกนหลัก AI ทำงานโดยการดำเนินการทางคณิตศาสตร์กับข้อมูลที่มีอยู่เพื่อให้การคาดการณ์หรือสร้างเนื้อหาใหม่ หากข้อมูลมีความเอียง ไม่แสดงให้เห็นถึงความหลากหลาย หรือขาดภาษาที่เฉพาะเจาะจง คำตอบของแชทบอท ข้อเสนอกิจกรรม และภาพที่สร้างขึ้นจากการพิมพ์ของเราอาจมีความเอียงเดียวกัน
เพื่อต้านความเอียงนี้ งานวิจัยและการสนับสนุนด้านการเทคโนโลยี สังคม เชื้อชาติ และเพศควรจะส่งผลต่อวิธีการสร้างเครื่องมือเทคโนโลยีที่รับผิดชอบ แซฟิย่า โนเบิลได้ศึกษาผลลัพธ์การค้นหาที่มีเอียงที่ปรากฏเมื่อค้นหา “ทรงผมอาชีพ” และ “ทรงผมไม่เอามาทำงาน” ใน Google คำที่หนึ่งได้ให้ภาพของหญิงผมขาว และคำค้นที่สองให้ภาพของหญิงผมดำที่มีทรงผมธรรมชาติ การแสดงความตระหนักเพิ่มขึ้นและการสนับสนุนที่มีอิทธิพลจากงานวิจัยในที่สุดก็กระทบ Google ให้อัปเดตระบบของตน
มีงานวิจัยที่มีผลต่อระบบ AI ก่อนที่จะถูกพิจารณาว่าเสร็จสมบูรณ์และนำมาใช้ในโลก ทีมวิจัยของมหาวิทยาลัยคาร์เนกีเมลลอนและมหาวิทยาลัยพิทตสเบิร์กใช้การ์ตูนของ AI ในระยะการดำเนินงานของ AI หรือแปลงรายงานและเครื่องมือ AI เป็นคำอธิบายและรูปภาพที่เข้าใจง่าย เพื่อชักชวนผู้ทำงานและบุคคลไร้ที่พักอาศัยในการสนทนาเกี่ยวกับระบบการสนับสนุนการตัดสินใจที่ใช้ AI ในการให้บริการบริการโดยตรง พวกเขาสามารถรับรู้วิธีทำงานของระบบและให้ข้อเสนอแน่นอนให้แก่นักพัฒนาได้ เรียนรู้จากนั้นคือว่า AI ถูกใช้งานโดยมนุษย์ และดังนั้นวิธีการที่รวมเทคโนโลยีกับบริบทสังคมจำเป็นต้องร่วมกันเพื่อกำหนดรูปแบบ
สังคมจะไปที่ไหนต่อไป? บทบาทของใครในการสมดุลการออกแบบเครื่องมือ AI กับการตัดสินใจเกี่ยวกับเมื่อควรใช้ระบบ AI และความจำเป็นที่จะลดความเสียหายที่ AI สามารถก่อให้เกิดได้? ทุกคนมีบทบาทในการเล่นบทบาทนั้น ดังที่พูดไปแล้ว ผู้เชี่ยวชาญด้านเทคโนโลยีและผู้นำองค์กรมีความรับผิดชอบในการออกแบบและการใช้ระบบ AI นโยบายบริษัทมีความสามารถในการกำหนดข้อบังคับสำหรับการพัฒนาและการใช้ AI – ไม่ใช่เพื่อจำกัดนวัตกรรม แต่เป็นเพื่อนำมันไปสู่ทิศทางที่ลดความเสียหายสำหรับบุคคล ผู้ให้ทุนและนักลงทุนสามารถสนับสนุนระบบ AI ที่ให้คนเป็นศูนย์กลางและสนับสนุนกระยะเวลาที่อนุญาตให้มีการร่วมรับข้อมูลจากชุมชนและการวิเคราะห์ชุมชน บทบาทเหล่านี้ต้องร่วมมือกันเพื่อสร้างระบบ AI ที่เป็นเอกศก
การใช้เครื่องมือด้านสายวิชาและส่วนต่าง ๆ สามารถให้ผลลัพธ์ที่ดีกว่าได้ และในปัจจุบันมีตัวอย่างที่มีความเป็นเสน่ห์หลายราย เช่น Farmer.chat ใช้ Gooey.AI เพื่อให้ชาวนาในอินเดีย เอธิโอเปีย และเคนยาเข้าถึงความรู้ด้านการเกษตรในภาษาท้องถิ่นบน WhatsApp ศูนย์ศึกษาเศรษฐกิจแอฟริกากลางกำลังพัฒนาโปรแกรมหลายประเทศหลายปีเพื่อดำเนินการทดสอบทรายเส้นในการบริหาร หรือทดลอง AI ในการตัดสินใจที่เชื่อมต่อกับเศรษฐกิจ นักวิจัยกำลังศึกษาวิธีการใช้ AI เพื่อทำให้ภาษาท้องถิ่นชีวิตขึ้นมาใหม่ หนึ่งในโครงการเช่นนี้กำลังทำงานร่วมกับภาษา Cheyenne ในภาคตะวันตกของสหรัฐอเมริกา
ตัวอย่างเหล่านี้แสดงว่า AI สามารถนำมาใช้ประโยชน์ให้แก่สังคมอย่างเท่าเทียมกัน ประวัติศาสตร์ได้พิสูจน์ว่าผลกระทบที่ไม่เท่าเทียมกันของเทคโนโลยีจะสะสมตลอดเวลา ผลกระทบที่ไม่เท่าเทียมกันเหล่านี้ไม่ใช่สิ่งที่ “คนเทค” จะต้องแก้ไขเอง แต่เราสามารถพัฒนาระบบ AI ที่มีคุณภาพมากขึ้นและใช้ในด้านต่าง ๆ ของชีวิตและเรื่องราวของเรา