ระบบตรวจจับ CSAM ของ Apple อาจไม่สมบูรณ์แบบ แต่ก็หลีกเลี่ยงไม่ได้


AppleInsider ได้รับการสนับสนุนจากผู้ชมและสามารถได้รับค่าคอมมิชชั่นในฐานะผู้ร่วมงานของ Amazon และพันธมิตรด้าน Affiliate จากการซื้อที่เข้าเงื่อนไข พันธมิตรพันธมิตรเหล่านี้ไม่ส่งผลกระทบต่อเนื้อหาด้านบรรณาธิการของเรา

ปีที่แล้ว Apple ได้ประกาศแผนการค้นหาเนื้อหาเกี่ยวกับการล่วงละเมิดทางเพศเด็ก (CSAM) ใน iOS 15.2 รุ่นวางจำหน่าย เทคโนโลยีเป็นสิ่งที่หลีกเลี่ยงไม่ได้แม้จะมีความไม่สมบูรณ์และความเงียบก็ตาม

Apple ประกาศเมื่อวันที่ 5 สิงหาคม 2021 เทคโนโลยีการสแกนนี้จะปรากฏใน iCloud Photos, iMessage และ Siri เครื่องมือนี้ออกแบบมาเพื่อปรับปรุงความปลอดภัยของเด็กๆ บนแพลตฟอร์ม

ในขณะนั้น เครื่องมือเหล่านี้มีกำหนดจะวางจำหน่ายภายในการอัปเดตสำหรับ watchOS, iOS, macOS และ iPadOS ภายในสิ้นปี 2021 Apple ได้เลื่อนเวลาออกไป โดยลบการกล่าวถึงการตรวจจับ CSAM ในรูปภาพ iCloud และโพสต์การอัปเดตบนหน้าความปลอดภัยของเด็ก

จากนั้นการร้องเรียนก็เริ่มขึ้น และพวกเขาเริ่มต้นราวกับว่าไม่ทราบว่า Microsoft ค้นหาไฟล์ที่อัปโหลดมาประมาณ 10 ปีและ Google เป็นเวลา 8 ปีแล้ว

Apple ทำอย่างนั้นมาหลายปีแล้วด้วยการใช้งานบางส่วนฝั่งเซิร์ฟเวอร์ แม้กระทั่งก่อนการเปิดตัว iOS 15.2 ตั้งแต่วันที่ 9 พฤษภาคม 2019 เป็นอย่างน้อย นโยบายความเป็นส่วนตัวระบุว่าบริษัทจะเซ็นเซอร์ล่วงหน้าหรือคัดกรองเนื้อหาที่อัปโหลดสำหรับเนื้อหาที่อาจผิดกฎหมาย ซึ่งรวมถึงเนื้อหาเกี่ยวกับการล่วงละเมิดทางเพศเด็ก อย่างไรก็ตาม ดูเหมือนว่าจะเป็นข้อมูลเฉพาะสำหรับเมล iCloud

เพื่อตอบสนองต่อฟันเฟืองขนาดใหญ่จากลูกค้าและนักวิจัยในเดือนกันยายน 2564 Apple กล่าวว่าจะใช้เวลาเพิ่มเติมในการรวบรวมข้อเสนอแนะและปรับปรุงก่อนที่จะเปิดตัวคุณสมบัติความปลอดภัยของเด็กสำหรับ iCloud Photos ฉันเก็บความคิดริเริ่มสองสามอย่างและดำเนินการต่อข้อความและ Siri

ความปลอดภัยของเด็กบนแพลตฟอร์ม Apple

ในข้อความ iOS จะเตือนเนื้อหาที่อาจลามกอนาจารในข้อความที่ได้รับถึงเด็กอายุระหว่าง 13 ถึง 17 ปีซึ่งรวมอยู่ในบัญชีครอบครัว iCloud ของพวกเขา ตัวอย่างเช่น หากระบบตรวจพบภาพเปลือย ภาพจะเบลอโดยอัตโนมัติและป๊อปอัปจะปรากฏขึ้นพร้อมข้อความความปลอดภัยและตัวเลือกในการยกเลิกการเบลอภาพ

สำหรับเด็กอายุต่ำกว่า 13 ปี iOS จะส่งการแจ้งเตือนไปยังผู้ปกครองเมื่อเด็กเลือกที่จะดูภาพ วัยรุ่นอายุ 13-17 ปีสามารถเบลอภาพบนอุปกรณ์ได้โดยไม่ต้องแจ้งให้ผู้ปกครองทราบ

ความปลอดภัยในการสื่อสารของเด็กในแอพข้อความ

ความปลอดภัยในการสื่อสารของเด็กในแอพข้อความ

Siri นำคุณไปสู่อีกระดับด้วยแถบค้นหาใน Safari และ Spotlight ดึงดูดผู้ใช้ Apple ทุกวัยเมื่อทำการค้นหาที่เกี่ยวข้องกับ CSAM ป๊อปอัปเตือนคุณว่าการค้นหาของคุณผิดกฎหมาย และให้แหล่งข้อมูลเพื่อ “เรียนรู้เพิ่มเติมและรับความช่วยเหลือ” Siri ยังสามารถแนะนำให้ผู้คนรายงานเนื้อหาที่ต้องสงสัยว่ามีการล่วงละเมิดเด็ก

สุดท้าย iCloud Photos ยังตรวจจับและรายงาน CSAM ที่น่าสงสัยอีกด้วย แผนของ Apple คือการรวมฐานข้อมูลของแฮชรูปภาพของสื่อที่ไม่เหมาะสมสำหรับข้อมูลอัจฉริยะในอุปกรณ์ ฐานข้อมูล National Center for Missing & Exploited Children (NCMEC) มีเป้าหมายเพื่อให้แน่ใจว่าแพลตฟอร์ม Apple รายงานเฉพาะเนื้อหาเกี่ยวกับการล่วงละเมิดเด็กที่ค้นพบแล้วในระหว่างการสอบสวนของหน่วยงานบังคับใช้กฎหมาย

Apple ระบุว่าการจับคู่ที่ผิดพลาดนั้นหาได้ยาก โดยระบุว่าอัตราต่อรองเป็นหนึ่งในล้านล้านสำหรับบัญชีหนึ่งๆ นอกจากนี้ยังมีทีมตรวจสอบที่เป็นเจ้าหน้าที่ซึ่งทำการตัดสินใจขั้นสุดท้ายว่าจะแจ้งหน่วยงานบังคับใช้กฎหมายหรือไม่ ดังนั้นทางลาดจึงไม่จบลงทันทีด้วยรายงานของตำรวจ

ทางลาดชันแต่เป็นหลุมเป็นบ่อ

เครื่องมือตรวจจับสำหรับรูปภาพ iCloud เป็นที่ถกเถียงกันมากที่สุด ตัวอย่างเช่น จดหมายเปิดผนึกของเอ็ดเวิร์ด สโนว์เดนและคนดังคนอื่นๆ ทำให้เกิดความกังวลว่าบางกลุ่มอาจใช้เทคโนโลยีเพื่อการเฝ้าระวัง รัฐบาลประชาธิปไตยและเผด็จการสามารถกดดันให้ Apple เพิ่มฐานข้อมูลแฮชสำหรับรายการที่ไม่ใช่ CSAM เช่นรูปภาพของผู้ไม่เห็นด้วย

คุณลักษณะด้านความปลอดภัยสำหรับเด็กของ Siri

คุณลักษณะด้านความปลอดภัยสำหรับเด็กของ Siri

ในความเป็นจริง มูลนิธิ Electronic Frontier Foundation กล่าวว่า “หนึ่งในเทคโนโลยีที่สร้างขึ้นเพื่อสแกนและแฮชภาพการล่วงละเมิดทางเพศเด็กถูกนำกลับมาใช้ใหม่เพื่อสร้างฐานข้อมูลของเนื้อหา “ผู้ก่อการร้าย” ที่ธุรกิจสามารถมีส่วนร่วมได้ “

อย่างไรก็ตาม มีการกระแทกบนทางลาดลื่น ในเดือนสิงหาคม 2564 Erik Neuenschwander หัวหน้าฝ่ายความเป็นส่วนตัวของ Apple ได้ตอบข้อกังวลในการให้สัมภาษณ์ว่า Apple ได้ดำเนินมาตรการเพื่อปกป้องเทคโนโลยีของตนจากการถูกนำไปใช้ในเนื้อหาที่ไม่ใช่ CSAM

ตัวอย่างเช่น ระบบนี้ใช้กับลูกค้า Apple ในสหรัฐอเมริกาเท่านั้น ซึ่งเป็นประเทศที่มีการแก้ไขครั้งที่สี่ซึ่งห้ามไม่ให้มีการค้นหาและยึดอย่างผิดกฎหมาย ต่อไป เนื่องจากเทคโนโลยีนี้สร้างขึ้นโดยตรงในระบบปฏิบัติการ จึงควรนำไปใช้กับผู้ใช้ทุกคน เป็นไปไม่ได้ที่ Apple จะจำกัดการอัปเดตเฉพาะบางประเทศหรือผู้ใช้แต่ละราย

ต้องผ่านเกณฑ์เนื้อหาบางอย่างด้วยก่อนที่เกียร์จะหมุนได้ รูปภาพเดียวของ CSAM ที่รู้จักจะไม่ทริกเกอร์สิ่งใด ความต้องการของ Apple คือประมาณ 30 ภาพแทน

Apple เผยแพร่บทความคำถามที่พบบ่อย (FAQ) เกี่ยวกับคุณสมบัติความปลอดภัยของเด็กในเดือนสิงหาคม 2021 หากรัฐบาลบังคับให้ Apple เพิ่มรูปภาพที่ไม่ใช่ CSAM ในรายการแฮช บริษัท กล่าวว่าจะปฏิเสธคำขอดังกล่าว ระบบได้รับการออกแบบให้สามารถตรวจสอบได้ และไม่สามารถ “ฉีด” อิมเมจที่ไม่ใช่ CSAM เข้าสู่ระบบได้

Apple กล่าวว่าจะเผยแพร่ฐานความรู้ที่มีรูทแฮชของฐานข้อมูลที่เข้ารหัสด้วย “ผู้ใช้จะสามารถตรวจสอบรูทแฮชของฐานข้อมูลที่เข้ารหัสบนอุปกรณ์ และเปรียบเทียบกับแฮชรูทที่คาดไว้ของบทความฐานความรู้” บริษัทเขียน

นักวิจัยด้านความปลอดภัยอาจประเมินความถูกต้องของฐานข้อมูลในการตรวจสอบของตนเอง หากแฮชฐานข้อมูลของอุปกรณ์ Apple ไม่ตรงกับแฮชที่มีอยู่ในฐานความรู้ ผู้คนจะรู้ว่ามีบางอย่างผิดปกติ

“ดังนั้น สมมติฐานจึงต้องเอาชนะอุปสรรคหลายประการ รวมถึงการให้ Apple เปลี่ยนกระบวนการภายในเพื่ออ้างอิงเนื้อหาที่ไม่ผิดกฎหมาย เช่น CSAM ที่รู้จัก คำขอมาจากสหรัฐอเมริกา” Neuenschwander กล่าว

Apple มีสิทธิ์ที่จะชะลอการทำงานหากจำเป็นและหาวิธีปรับปรุงความแม่นยำของระบบ บางบริษัทที่ค้นหาเนื้อหาประเภทนี้ทำผิดพลาด

และหนึ่งในปัญหาเหล่านี้เพิ่งได้รับการเน้นโดยความผิดพลาดครั้งใหญ่ของ Google

ปัญหาก่อนเกิดคดีอาญา

ตัวอย่างสำคัญของซอฟต์แวร์ที่มีข้อบกพร่องเกิดขึ้นเมื่อวันที่ 21 สิงหาคมที่ Google นิวยอร์กไทม์ส เผยแพร่บทความที่เน้นถึงอันตรายของระบบเฝ้าระวังดังกล่าว

พ่อของซานฟรานซิสโกถ่ายรูปอวัยวะเพศของทารกตามคำร้องขอของแพทย์เนื่องจากปัญหาทางการแพทย์ เขาส่งภาพผ่านระบบ telemedicine ของผู้ให้บริการด้านการแพทย์ แต่โทรศัพท์ Android ของเขายังอัปโหลดไปยัง Google Photos โดยอัตโนมัติ ซึ่งเป็นการตั้งค่าที่บริษัทเปิดใช้โดยค่าเริ่มต้น

ภาพที่ระบุว่า CSAM ไม่เป็นที่รู้จักในชื่อ CSAM ในขณะนั้น แต่ Google ได้รายงานภาพดังกล่าวต่อหน่วยงานบังคับใช้กฎหมายและล็อกบัญชีทั้งหมดของบิดาที่เกี่ยวข้องกับผลิตภัณฑ์ดังกล่าว โชคดีที่ตำรวจเข้าใจธรรมชาติของภาพ และ Google ไม่ได้คืนสิทธิ์การเข้าถึงบัญชี แต่ไม่มีการตั้งข้อกล่าวหาใดๆ

Google รูปภาพใน App Store

Google รูปภาพใน App Store

ระบบตรวจจับของ Google ทำงานไม่เหมือนกับเทคโนโลยีของ Apple ทุกประการ หน้าสนับสนุนของบริษัทกล่าวถึงการจับคู่แฮช เช่น “CSAI Match to Detect Known CSAM ของ YouTube”

อย่างไรก็ตาม ดังตัวอย่างทางการแพทย์ อัลกอริทึมของ Google สามารถตรวจจับองคชาตทั้งหมดในเด็ก นอกเหนือจากแฮชจากฐานข้อมูล NCMEC หน้านี้กล่าวถึงแมชชีนเลิร์นนิง “เพื่อค้นหา CSAM ที่ไม่เคยมีมาก่อน” ซึ่งไม่สามารถแยกแยะระหว่างอาชญากรรมและความไร้เดียงสาได้อย่างชัดเจน

นั่นเป็นเรื่องใหญ่และหนึ่งในเหตุผลที่ผู้สนับสนุนความเป็นส่วนตัวให้ความสำคัญกับเทคโนโลยีของ Apple เป็นอย่างมาก

ก้าวไปข้างหน้า

อย่างไรก็ตาม การใช้การตรวจจับ CSAM ของ Apple ใน iCloud Photos นั้นเป็นเพียงเรื่องของเวลาเท่านั้น เพียงเพราะระบบอยู่ตรงกลาง รัฐบาลไม่สามารถบอกให้ Apple รวมเนื้อหาของผู้ก่อการร้ายในฐานข้อมูล CSAM

ความล่าช้าเกิดจากการประท้วงของประชาชน ความผิดพลาดของ Apple อยู่ในข้อความเริ่มต้นเมื่อประกาศคุณสมบัติ ไม่ใช่ข้อผิดพลาดภายในระบบตรวจจับ

ในรายงานเดือนกุมภาพันธ์ปี 2022 บริษัทรักษาความปลอดภัย PenLink กล่าวว่า Apple เป็น “สิ่งมหัศจรรย์” สำหรับหน่วยงานบังคับใช้กฎหมายอยู่แล้ว มีรายได้ 20 ล้านดอลลาร์ต่อปีโดยช่วยรัฐบาลสหรัฐฯ ติดตามผู้ต้องสงสัยในคดีอาชญากรรมและขายบริการให้กับหน่วยงานบังคับใช้กฎหมายในท้องถิ่น งานนำเสนอที่รั่วไหลออกมา เช่น สไลด์การรับรอง iCloud โดยละเอียด

Apple ไม่เก็บความลับว่าจะช่วยเหลือหน่วยงานบังคับใช้กฎหมายอย่างไรเมื่อยื่นหมายเรียก ตัวอย่างข้อมูลที่ Apple อาจแชร์ ได้แก่ ข้อมูลจากข้อมูลสำรอง iCloud เมลที่จัดเก็บบนเซิร์ฟเวอร์ และบางครั้งเป็นข้อความ

รัฐบาลทั่วโลกยังคงพัฒนาวิธีการเสริมสร้างความเข้มแข็งของการเฝ้าระวังทางออนไลน์ เช่น ร่างกฎหมายความปลอดภัยออนไลน์ที่เปิดตัวในสหราชอาณาจักรในเดือนพฤษภาคม พ.ศ. 2564 การแก้ไขร่างกฎหมายที่เสนอจะบังคับให้บริษัทเทคโนโลยีอย่าง Apple ตรวจจับ CSAM แม้จะอยู่ในบริการส่งข้อความที่เข้ารหัสแบบ end-to-end Apple เข้ารหัส iMessage และย้ายการสแกนนี้ไปยังอัลกอริธึมในอุปกรณ์เพื่อคัดแยก iMessage ก่อนอัปโหลด

นักวิจารณ์อ้างถึงการสแกน iCloud Photo ว่าเป็นแบ็คดอร์ แต่จนถึงตอนนี้ Apple ได้ต่อสู้กับความพยายามที่จะสร้างแบ็คดอร์ลงในอุปกรณ์ในสหรัฐอเมริกา การต่อสู้ที่มีชื่อเสียงกับ FBI ทำให้ลูกค้า Apple ปลอดภัยจาก iOS เวอร์ชันพิเศษที่สามารถเจาะเข้าไปในอุปกรณ์ของพวกเขาได้อย่างง่ายดาย

ไม่ชัดเจนว่าการอัปเดต iOS 16 จะเสนอการสแกนรูปภาพ iCloud หรือไม่ แต่จะเกิดขึ้นในไม่ช้า หลังจากนั้น ลูกค้า Apple จะต้องตัดสินใจว่าจะใช้ iCloud ต่อไปหรือเปลี่ยนไปใช้โซลูชันแบบ end-to-end ทางเลือกอื่น หรือคุณสามารถปิดรูปภาพ iCloud เพราะ Apple โน้มน้าวให้ทุกคนเชื่อว่ากระบวนการตรวจจับเกิดขึ้นกับบริการซิงค์เท่านั้น