หนึ่งในโครงการสุดท้ายที่เกี่ยวข้องกับกระทรวงกลาโหมและอยู่ภายใต้การบริหารของไบเดนได้ปิดตัวลงอย่างประสบความสำเร็จ หัวหน้าสำนักงานดิจิทัลและปัญญาประดิษฐ์ (CDAO) ของกระทรวงกลาโหมสหรัฐฯ (DoD) เสร็จสิ้นโครงการนำร่องการรับประกัน Team Red-Teaming (CAIRT) ของ Crowdsourced AI ความคิดริเริ่มนี้มีจุดมุ่งหมายเพื่อบูรณาการแชทบอท AI เข้ากับบริการทางการแพทย์ของทหาร
แชทบอทโมเดลภาษาขนาดใหญ่ (LLM) ถูกนำไปใช้ในโปรแกรม CAIRT นอกจากนี้ CAIRT ช่วยเหลือกระทรวงการพัฒนากลยุทธ์แบบกระจายอำนาจและระดมข้อมูลจากมวลชนสำหรับการลดความเสี่ยงของ AI และการรับประกัน AI
ผู้ให้บริการทางคลินิกและนักวิเคราะห์ด้านการดูแลสุขภาพกว่า 200 รายมีส่วนร่วมในการ dent ช่องโหว่ที่อาจเกิดขึ้นในการใช้แชทบอท AI ในแอปพลิเคชันทางการแพทย์ของกองทัพ โดยเฉพาะอย่างยิ่ง นักบินที่ฉัน dent สามารถแก้ไขปัญหาที่อาจเกิดขึ้นได้หลายร้อยรายการ ตามที่กระทรวงกลาโหมรายงาน
ด้วยเหตุนี้ กระทรวงกลาโหมจึงกล่าวว่า "แบบฝึกหัดนี้จะส่งผลให้เกิดเอาต์พุตที่สามารถทำซ้ำและปรับขนาดได้ผ่านการพัฒนาชุดข้อมูลเกณฑ์มาตรฐาน ซึ่งสามารถใช้เพื่อประเมินผู้ขายและเครื่องมือในอนาคตเพื่อให้สอดคล้องกับความคาดหวังด้านประสิทธิภาพ"
ตามข้อมูลของกระทรวง หน่วยข่าวกรองด้านมนุษยธรรมที่ไม่แสวงหาผลกำไรได้ดำเนินการนำร่อง CAIRT LLM บรรลุเป้าหมายนี้ด้วยความร่วมมือกับ Defense Health Agency (DHA) และสำนักงานบริหารโครงการของระบบการจัดการการดูแลสุขภาพกลาโหม (PEO DHMS)
นอกจากนี้ ความฉลาดด้านมนุษยธรรมยังใช้วิธีการรวมทีมสีแดงเพื่อ dent ปัญหาของระบบโดยเฉพาะ สิ่งนี้เกี่ยวข้องกับการทดสอบความยืดหยุ่นของระบบภายในโดยใช้เทคนิคที่ขัดแย้งกัน
นอกจากนี้ การรวมทีมสีแดงยังดึงดูดผู้เข้าร่วมที่สนใจโต้ตอบกับเทคโนโลยีเกิดใหม่และเป็นผู้ได้รับประโยชน์ในอนาคต พวกเขาได้รับอนุญาตให้มีส่วนร่วมในการปรับปรุงระบบ
ในโปรแกรมนี้ ความฉลาดอย่างมีมนุษยธรรมใช้การรวมทีมจากมวลชนเพื่อจัดการกับการใช้งานที่เป็นไปได้สองประการในการแพทย์ทหาร: การสรุปบันทึกทางคลินิก และแชทบอตที่ปรึกษาทางการแพทย์
แม้ว่าช่องโหว่จะถูก dent แต่ DoD เน้นย้ำว่า “การค้นพบเหล่านี้จะมีบทบาทสำคัญในการกำหนดนโยบายของกระทรวงและแนวทางปฏิบัติที่ดีที่สุดสำหรับการใช้ Generative AI (GenAI) ซึ่งจะช่วยปรับปรุงการดูแลทางการแพทย์ของกองทัพในท้ายที่สุด เมื่อนำไปใช้จริง หากกรณีการใช้งานในอนาคตเหล่านี้ประกอบด้วย AI ที่ครอบคลุม defi กำหนดไว้ใน OMB M-24-10 พวกเขาจะปฏิบัติตามแนวทางปฏิบัติในการบริหารความเสี่ยงที่จำเป็นทั้งหมด”
อย่างไรก็ตาม กระทรวงกลาโหมระบุว่าโปรแกรม CAIRT Assurance จะยังคงทดสอบ LLM และระบบ AI ต่อไป สิ่งนี้จะช่วยเร่งความเร็ว AI Rapid Capabilities Cell ของ CDAO ทำให้เป้าหมาย GenAI มีประสิทธิภาพมากขึ้น และช่วยสร้างความไว้วางใจในทุกกรณีการใช้งานของ DoD
ดร. แมทธิว จอห์นสัน ผู้นำของ CDAO สำหรับโครงการริเริ่มนี้ กล่าวอีกว่า "เนื่องจากการใช้ GenAI เพื่อวัตถุประสงค์ดังกล่าวภายในกระทรวงกลาโหมยังอยู่ในขั้นตอนเริ่มต้นของการทดลองนำร่องและการทดลอง โปรแกรมนี้จึงทำหน้าที่เป็นผู้เบิกทางที่สำคัญสำหรับการสร้างข้อมูลการทดสอบจำนวนมาก พื้นที่พื้นผิว เพื่อการพิจารณาและตรวจสอบตัวเลือกการบรรเทาผลกระทบที่จะกำหนดทิศทางการวิจัย การพัฒนา และการรับรองระบบ GenAI ในอนาคตที่อาจนำไปใช้ในอนาคต”
ฝ่ายบริหารที่กำลังจะมาถึงคาดว่าจะดำเนินโครงการเหล่านี้ต่อไป ทีมของทรัมป์เปิดใจกว้างเกี่ยวกับ AI แม้ว่าจะต้องแข่งขันกับจีนก็ตาม
แม้ว่า AI จะมีประโยชน์อย่างมากต่อวิทยาศาสตร์การแพทย์ แต่ก็ตามมาด้วยความเสี่ยงและอันตรายที่สำคัญหลายประการ
สำหรับสถานะ ระบบ AI จะใช้อัลกอริธึมเฉพาะที่ต้องใช้ชุดข้อมูลจำนวนมากเพื่อเพิ่มความแม่นยำ วิธีการนี้ทำให้ข้อมูลคนไข้ที่ละเอียดอ่อนตกอยู่ในความเสี่ยงด้านความปลอดภัย ความเป็นส่วนตัว และ ความ dent ในปัจจุบัน เนื่องจากบริษัทยาและประกันภัยสนใจชุดข้อมูลดังกล่าว การแฮ็กจึงขยายตัวอย่าง มาก การแฮ็กไฟล์ทางการแพทย์อาจเป็นส่วนหนึ่งของการโจมตีทางไซเบอร์ของรัฐบาล
นอกจากนี้ การเป็นพิษของข้อมูล หรือการปรับเปลี่ยนข้อมูลทางการแพทย์โดยเจตนาเพื่อทำให้เกิดข้อผิดพลาดหรืออคติในการดูแลสุขภาพ ถือเป็นความเสี่ยงที่สำคัญอีกประการหนึ่งของการใช้ข้อมูลทางการแพทย์ในทางที่ผิด สิ่งนี้ส่งผลเสียต่อความแม่นยำและความน่าเชื่อถือของคำแนะนำทางการแพทย์ AI ที่ใช้แบบจำลองข้อมูลทางระบาดวิทยาที่แตกต่างกัน เช่น ในการระบาดใหญ่ของโควิด-19 อาจให้ผลลัพธ์ที่หลากหลาย
อีกประเด็นหนึ่งก็คืออัลกอริทึมทางการแพทย์ที่มีข้อบกพร่อง อาจเป็นเพราะการทดสอบอัลกอริธึมไม่เพียงพอเนื่องจากไม่มีมาตรฐานที่กำหนดไว้ในการทดสอบความถูกต้อง ตัวอย่างเช่น การทดลองแบบ double-blind เป็นวิธีที่มีประสิทธิภาพมากที่สุดในการพิสูจน์ว่าการรักษาได้ผล
แต่ใครจะเป็นผู้รับผิดชอบต่อความผิดพลาดดังกล่าว ไม่ว่าจะเป็นแพทย์ส่วนตัว โรงพยาบาล ผู้ให้บริการอุปกรณ์ หรือผู้พัฒนาอัลกอริทึม? ดังนั้นข้อผิดพลาดทางการแพทย์ที่เกิดจากความผิดปกติของเครื่องจักรทำให้เกิดปัญหาทางกฎหมายที่ร้ายแรง
AI แชทบอทเล่นเป็นหมอเหรอ? 🤖 ยังไม่หมด..
ผลการศึกษาพบว่าทักษะการวินิจฉัยของพวกเขายังสั่นคลอนอยู่มาก
AI การดูแลสุขภาพยังต้องการการเสริมสมองก่อนจึงจะเชื่อถือได้กับสุขภาพของคุณ 🩺 pic.twitter.com/W2ast8S7iO
– หน่วยงาน CAD (@CAD_Authority) วันที่ 2 มกราคม 2568
นอกจากนี้ AI ยังอาจบั่นทอนความสัมพันธ์ระหว่างแพทย์และผู้ป่วยอีกด้วย ดังนั้น แพทย์จึงต้องเข้าใจการประเมินและประสิทธิภาพของ AI เพื่ออธิบายบทบาทของ AI ต่อผู้ป่วย และลดความวิตกกังวลของผู้ป่วย
ในที่สุด ก็มีปรากฏการณ์ที่เรียกว่าเอฟเฟกต์ “หมอขี้เกียจ” หากแพทย์ใช้อัลกอริธึม AI ในการวินิจฉัยและการรักษาโดยเฉพาะ อาจส่งผลให้สูญเสียทักษะการปฏิบัติ ความคิดสร้างสรรค์ทางปัญญา และความสามารถในการแก้ไขปัญหาทางการแพทย์อย่างก้าวหน้าและถาวร
อย่างไรก็ตาม ผู้คนเริ่มคุ้นเคยกับ Chatbots ในชีวิตประจำวันแล้ว ด้วยการวิจัยที่เหมาะสม AI Chatbots สามารถกำจัดข้อผิดพลาดเล็กๆ น้อยๆ ที่แพทย์ทำ ซึ่งทำให้พื้นที่ทางการแพทย์ปลอดภัยยิ่งขึ้น
แผนเปิดตัวอาชีพ 90 วันของคุณ