Apple'dan çocuk istismarını tespit edecek yazılım!
Günümüzün en büyük problemlerinden biri olan çocuk istismarına karşı mücadele için Apple'dan bir hamle geldi. Alınan bilgilere göre, Apple çocuk istismarının tespiti için iPhone'lara yazılım yüklemeyi planlıyor.
ABD'li teknoloji şirketi Apple, çocuk istismarlarının tespiti için ürettiği iPhone model cep telefonlarına görüntüleri tarayan bir yazılım yüklemeyi amaçlıyor.
Apple'ın 'neutralMatch' olarak adlandırdığı sistemi bu haftanın başlarında bazı ABD'li akademisyenlere ayrıntılı olarak anlattığı ve planın ilerleyen günlerde daha geniş çapta duyurulacağı söyleniyor.
Yapılan açıklamalara göre, sistemin yasa dışı görüntüleri tespit ederek, istismarla ilgili materyallerin doğrulandığı takdirde, güvenlik güçleri ile iletişime geçeceği belirtildi.
iCloud'a yüklenen her fotoğrafa, şüpheli olup olmadığını belirten bir 'güvenlik değeri' verileceği ve belirli sayıda fotoğrafın şüpheli olarak işaretlendiğinde, Apple'ın tüm şüpheli fotoğrafların şifresinin çözülmesini ve yasa dışı materyallerin saptanmasını sağlayacağı aktarıldı.
Sistemin fotoğrafları tararken, çocuk cinsel istismarına ilişkin resimlerin bulunduğu bir veri tabanındaki fotoğraflarla karşılaştırılacağı ve planın başlangıçta yalnızca ABD'deki mobil cihazlara uygulanmasının beklendiği belirtildi.
Güvenlik araştırmacıları ise, Apple'ın çocuk istismarı ile mücadele çabalarını desteklerken, dünyanın dört bir yanındaki hükümetlerin vatandaşlarının kişisel verilerine, orijinal amacın çok ötesinde erişim sağlama riskinden endişe duyduğunu belirtti.
Araştırmacılar, sistemin şu anda çocuklara yönelik cinsel istismarı tespit etmek için tasarlanmış olmasına rağmen, terör veya protestolardaki hükümet karşıtı işaretler gibi diğer hedeflenen görüntü ve metinleri taramak için de kullanılabileceğini ifade etti.
Cambridge Üniversitesi'nden Güvenlik Mühendisliği Profesörü Ross Anderson, “Kesinlikle dehşet verici bir fikir, çünkü telefonlarımız ve dizüstü bilgisayarlarımızın dağıtılmış toplu bir gözetimine yol açacak.' dedi.
Ayrıca bazı güvenlik uzmanları, Apple'ın böyle bir uygulamaya geçtiği takdirde hükümetlerin de bu bilgilere ulaşabileceğini söylüyor.
Apple'ın 'neutralMatch' olarak adlandırdığı sistemi bu haftanın başlarında bazı ABD'li akademisyenlere ayrıntılı olarak anlattığı ve planın ilerleyen günlerde daha geniş çapta duyurulacağı söyleniyor.
GÜVENLİK GÜÇLERİNE HABER VERECEK
Yapılan açıklamalara göre, sistemin yasa dışı görüntüleri tespit ederek, istismarla ilgili materyallerin doğrulandığı takdirde, güvenlik güçleri ile iletişime geçeceği belirtildi.
iCloud'a yüklenen her fotoğrafa, şüpheli olup olmadığını belirten bir 'güvenlik değeri' verileceği ve belirli sayıda fotoğrafın şüpheli olarak işaretlendiğinde, Apple'ın tüm şüpheli fotoğrafların şifresinin çözülmesini ve yasa dışı materyallerin saptanmasını sağlayacağı aktarıldı.
Sistemin fotoğrafları tararken, çocuk cinsel istismarına ilişkin resimlerin bulunduğu bir veri tabanındaki fotoğraflarla karşılaştırılacağı ve planın başlangıçta yalnızca ABD'deki mobil cihazlara uygulanmasının beklendiği belirtildi.
Güvenlik araştırmacıları ise, Apple'ın çocuk istismarı ile mücadele çabalarını desteklerken, dünyanın dört bir yanındaki hükümetlerin vatandaşlarının kişisel verilerine, orijinal amacın çok ötesinde erişim sağlama riskinden endişe duyduğunu belirtti.
Araştırmacılar, sistemin şu anda çocuklara yönelik cinsel istismarı tespit etmek için tasarlanmış olmasına rağmen, terör veya protestolardaki hükümet karşıtı işaretler gibi diğer hedeflenen görüntü ve metinleri taramak için de kullanılabileceğini ifade etti.
'FİKİR DEHŞET VERİCİ'
Cambridge Üniversitesi'nden Güvenlik Mühendisliği Profesörü Ross Anderson, “Kesinlikle dehşet verici bir fikir, çünkü telefonlarımız ve dizüstü bilgisayarlarımızın dağıtılmış toplu bir gözetimine yol açacak.' dedi.
Ayrıca bazı güvenlik uzmanları, Apple'ın böyle bir uygulamaya geçtiği takdirde hükümetlerin de bu bilgilere ulaşabileceğini söylüyor.