Dario Amodei ซีอีโอของบริษัทเทคโนโลยีชื่อดัง Anthropic ประกาศเป้าหมายใหม่ที่น่าจับตามอง เขาอยากให้มนุษย์ "เข้าใจวิธีคิดของ AI" ให้ได้มากกว่านี้ ภายในปี 2027 โดยได้เขาเขียนบทความชื่อ “The Urgency of Interpretability” บอกว่าตอนนี้เราใช้ AI เก่งขึ้นเรื่อย ๆ แต่น่าแปลกที่กลับไม่รู้ว่ามันตัดสินใจอย่างไร หรือคิดแบบไหนกว่าจะได้คำตอบออกมา
“มันเหมือนเราสร้างหุ่นยนต์ฉลาดสุด ๆ ขึ้นมา แต่ไม่รู้เลยว่ามันคิดอะไรอยู่ข้างใน ผมว่ามันอันตรามาก” – Amodei เขียนไว้ ซึ่งสิ่งนี้เป็นปัญหาสำคัญที่เรียกกันว่า Black box of AI models
AI ในวันนี้เริ่มทำงานแทนมนุษย์ได้หลายอย่าง ตั้งแต่สรุปรายงานการเงิน ไปจนถึงแนะนำการตัดสินใจสำคัญ แต่ปัญหาคือบางครั้งมันก็ตอบผิดแบบงง ๆ หรือสร้างข้อมูลปลอมขึ้นมาเอง โดยไม่มีใครรู้ว่าเพราะอะไร
Amodei บอกว่า AI ไม่เหมือนซอฟต์แวร์ทั่วไป เพราะมันไม่ได้เขียนขึ้นมาแบบโปรแกรมปกติ แต่เติบโตขึ้นผ่านการเรียนรู้จากข้อมูลมหาศาล พอถึงจุดหนึ่ง แม้แต่นักวิจัยเองก็ไม่รู้แน่ชัดว่าอะไรเกิดขึ้นภายใน เขาอยากให้บริษัทของเขา (และทั้งวงการ AI) หาวิธี “สแกนสมอง AI” เหมือนกับการทำ MRI สมองคน เพื่อดูว่าข้างในกำลังคิดอะไร และมีปัญหาอะไรบ้าง เช่น ชอบโกหก ชอบควบคุม หรือมีอคติบางอย่าง
ตอนนี้ Anthropic เริ่มหาวิธีติดตามเส้นทางการคิดของ AI ผ่านสิ่งที่เรียกว่า วงจร (circuits) และเริ่มเจอบางเส้นทางแล้ว เช่น วงจรที่ทำให้ AI เข้าใจว่าเมืองไหนอยู่ในรัฐไหนของอเมริกา แต่ก็ยังมีอีกนับล้านที่ยังไม่รู้
Amodei ยังอยากให้รัฐบาลเข้ามาช่วยส่งเสริมด้านนี้ ด้วยกฎแบบเบามือ เช่น บังคับให้บริษัทเปิดเผยว่ามีมาตรการด้านความปลอดภัยอะไรบ้าง และเรียกร้องให้บริษัทอื่นอย่าง Google กับ OpenAI ร่วมมือกันพัฒนาด้านนี้ด้วย
น่าสนใจว่า Anthropic เป็นบริษัทไม่กี่เจ้าในวงการที่ให้ความสำคัญกับ “ความปลอดภัยของ AI” มากกว่าความเร็วในการพัฒนา จนถึงขั้นแสดงท่าทีสนับสนุนร่างกฎหมายด้าน AI ที่บริษัทอื่นพากันคัดค้าน เป้าหมายใหญ่ของ Amodei ไม่ใช่แค่ทำให้ AI ฉลาดขึ้น แต่ทำให้เราเข้าใจมัน ก่อนที่จะฉลาดเกินกว่าที่มนุษย์จะควบคุมได้ทัน
อ้างอิง: techcrunch
ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด