หน่วยงานด้านความเป็นส่วนตัวของสหภาพยุโรปชั่งน้ำหนักในประเด็นใหม่ ๆ เกี่ยวกับความถูกต้องตามกฎหมายของ GenAI คณะกรรมการได้สำรวจช่องโหว่ที่นักพัฒนา AI อาจนำไปใช้ในการประมวลผลข้อมูลส่วนบุคคลโดยไม่ขัดต่อกฎหมาย ปัจจุบัน
คณะกรรมการคุ้มครองข้อมูลแห่งยุโรปตั้งคำถามเกี่ยวกับพื้นฐานทางกฎหมายสำหรับนักพัฒนา AI ที่ประมวลผลข้อมูลส่วนบุคคลของผู้ใช้ ในความเห็น ที่เผยแพร่ เมื่อวันที่ 17 ธันวาคม คณะกรรมการได้กล่าวถึงประเด็นต่างๆ ของการบังคับใช้ทั่วไปตามมาตรา 64(2) ของ GDPR
คณะกรรมการคุ้มครองข้อมูลแห่งยุโรป (EDPB) ได้ออกความคิดเห็นตามคำขอของหน่วยงานกำกับดูแลของไอร์แลนด์ คณะกรรมการตั้งข้อสังเกตว่ามีอำนาจตามกฎหมายภายใต้ กฎระเบียบคุ้มครองข้อมูลทั่วไป (GDPR) ที่จะออกความเห็นในเรื่องที่ส่งผลกระทบต่อรัฐสมาชิกมากกว่าหนึ่งประเทศภายในสหภาพยุโรป
หน่วยงานชี้ให้เห็นคำขอที่นำเสนอโดยหน่วยงานชาวไอริชที่เกี่ยวข้องกับการประมวลผลข้อมูลส่วนบุคคลในระหว่างขั้นตอนการพัฒนาและใช้งานปัญญาประดิษฐ์ (AI) ได้จำกัดความคิดเห็นให้เหลือสี่ประเด็นที่เกี่ยวข้องกับการปกป้องข้อมูลภายในสหภาพยุโรป
ประเด็นต่างๆ รวมถึงเวลาและวิธีที่โมเดล AI สามารถถูกพิจารณาว่าไม่เปิดเผยตัวตนได้ และวิธีที่ผู้ควบคุมสามารถแสดงให้เห็นถึงความจำเป็นของผลประโยชน์ที่ชอบด้วยกฎหมายในการปรับใช้ นอกจากนี้ คณะกรรมการยังได้สำรวจผลที่ตามมาจากการประมวลผลข้อมูลที่ผิดกฎหมายในระหว่างขั้นตอนการพัฒนาโมเดล AI ต่อการดำเนินการในภายหลังของโมเดล AI
สำหรับคำถามที่ว่าโมเดล AI จะสามารถระบุตัวตนของแบบจำลอง AI ได้เมื่อใดและอย่างไรนั้น หน่วยงานระบุว่าหน่วยงานท้องถิ่นที่มีอำนาจควรทำการตัดสินใจเป็นกรณีไป คณะกรรมการ ระบุ ว่าไม่ได้พิจารณาโมเดล AI ทั้งหมดที่ได้รับการฝึกอบรมโดยใช้ข้อมูลส่วนบุคคลโดยไม่เปิดเผยตัวตน
หน่วยงานแนะนำให้หน่วยงานกำกับดูแลระดับชาติประเมินเอกสารที่เกี่ยวข้องที่ผู้ควบคุมจัดเตรียมให้เพื่อพิจารณาการไม่เปิดเผยตัวตนของโมเดล นอกจากนี้ ผู้ควบคุมควรดำเนินการตามขั้นตอนที่เกี่ยวข้องเพื่อจำกัดการรวบรวมข้อมูลส่วนบุคคลระหว่างการฝึกอบรม และลดการโจมตีที่อาจเกิดขึ้น
สำหรับคำถามเกี่ยวกับประโยชน์โดยชอบด้วยกฎหมายในฐานะพื้นฐานทางกฎหมายที่เหมาะสมสำหรับการประมวลผลข้อมูลส่วนบุคคลในระหว่างการปรับใช้โมเดล AI คณะกรรมการปล่อยให้ผู้ควบคุมเป็นผู้กำหนดพื้นฐานทางกฎหมายที่เหมาะสมสำหรับการประมวลผลข้อมูลดังกล่าว
EDPB เน้นการทดสอบสามขั้นตอนในการพิจารณาผลประโยชน์ที่ชอบด้วยกฎหมายโดยหน่วยงานกำกับดูแล ขั้นตอนต่างๆ รวมถึง dent ระบุถึงประโยชน์โดยชอบด้วยกฎหมายที่เกิดขึ้นจริงและการวิเคราะห์ความจำเป็น ผู้ควบคุมยังต้องประเมินด้วยว่าผลประโยชน์ที่ชอบด้วยกฎหมายนั้นสมดุลกับสิทธิและเสรีภาพของเจ้าของข้อมูลหรือไม่
ในการประเมินผลที่ตามมา ร่างกายจะส่งดุลยพินิจไปยังหน่วยงานกำกับดูแลในรัฐที่เกี่ยวข้อง นอกจากนี้ SA ควรเลือกผลที่ตามมาที่เหมาะสมโดยขึ้นอยู่กับข้อเท็จจริงของแต่ละสถานการณ์
คณะกรรมการคุ้มครองข้อมูลของไอร์แลนด์ตอบในแถลงการณ์โดยระบุว่าความคิดเห็นดังกล่าวจะส่งเสริมการควบคุมโมเดล AI ที่มีประสิทธิภาพและสม่ำเสมอในสหภาพยุโรป ผู้บัญชาการ เดล ซันเดอร์แลนด์ ให้ความเห็นว่า:
นอกจากนี้ยังจะสนับสนุนการมีส่วนร่วมของ DPC กับบริษัทต่างๆ ที่กำลังพัฒนาโมเดล AI ใหม่ก่อนที่จะเปิดตัวในตลาดสหภาพยุโรป เช่นเดียวกับการจัดการข้อร้องเรียนที่เกี่ยวข้องกับ AI จำนวนมากที่ถูกส่งไปยัง DPC
เดล ซันเดอร์แลนด์
มีรายงานว่ามีการร้องเรียนเกี่ยวกับ OpenAI ผู้ผลิต ChatGPTs ในเฟรมในช่วงหลายเดือนที่ผ่านมา หน่วยงานคุ้มครองข้อมูลของโปแลนด์ตั้งคำถามเมื่อปีที่แล้วเกี่ยวกับการปฏิบัติตาม GDPR ของนักพัฒนา AI
เจ้าหน้าที่กล่าวหาว่า OpenAI มองข้ามข้อกำหนด เช่น การปรึกษาหารือล่วงหน้ากับหน่วยงานกำกับดูแล ซึ่งมีความเสี่ยงต่อการละเมิดข้อมูลส่วนบุคคล หน่วยงานกำกับดูแลตั้งข้อสังเกตว่า OpenAI เปิดตัว ChatGPT โดยไม่ปรึกษาหน่วยงานกำกับดูแลในพื้นที่ซึ่งฝ่าฝืนหลักเกณฑ์ GDPR
Garante ของอิตาลี ยังสั่งให้ OpenAI หยุดการประมวลผลข้อมูลส่วนบุคคลในปี 2566 ก่อนที่จะแก้ไขปัญหาที่ฉัน dent ในแพลตฟอร์มของบริษัท โดยเน้นย้ำว่าบริษัทในซานฟรานซิสโกขาดมาตรการป้องกันไม่ให้ผู้เยาว์เข้าถึงเทคโนโลยีตามที่กฎหมายกำหนด
หน่วยงานกำกับดูแลเตือนว่าการไม่ปฏิบัติตามแนวทางดังกล่าวจะ trac โทษ ซึ่งรวมถึงมูลค่าการซื้อขายสี่เปอร์เซ็นต์ต่อปีหรือยี่สิบล้านยูโร แล้วแต่จำนวนใดจะมากกว่า
ได้งาน Web3 ที่จ่ายสูงใน 90 วัน: สุดยอดโรดแมป