• DOLAR
  • EURO
  • ALTIN
  • BIST
Apple, CSAM tarama hususi durumunu kaldırdı

Apple, CSAM tarama hususi durumunu kaldırdı


Apple, geçtiğimiz yıl iOS 15.2 güncellemesiyle beraber iCloud fotoğraflarını CSAM özelliğiyle tarayacağını duyurmuştu. Teknoloji devi, bu şekilde herhangi bir kullanıcının çocuk istismarında bulunup bulunmadığını anlayarak polisle iş birliğine gidecekti. Fakat Apple sözcüsü, yapmış olduğu açıklamayla beraber bu özellikten vazgeçtiklerini ve nedenlerini paylaştı. Peki Apple, CSAM tarama hususi durumunu kaldırmalarıyla ilgili neler söylemiş oldu? Haberin detaylarına hep beraber göz atalım.

Apple, CSAM taramayı kaldırdığını doğruladı

Apple, CSAM tarama özelliğiyle beraber bununla birlikte Mesajlar uygulaması için Ebeveyn Denetimi, Siri ve Arama uygulamasını güçlendirmek şeklinde değişimler yapmış oldu. Teknoloji devi, bu özellikleri açıkladıktan derhal sonrasında birçok Apple müşterisi, gizlilik açısından iCloud fotoğraflarının taranmaması icap ettiğini mevzusunda tepki gösterdi.

Apple, mevzuyla ilgili kullanıcılarının gizliliğini koruyacağı ve üçüncü tarafların verilere ulaşamayacağını belirtse de bu durum işe yaramadı. İnsanlar, nezaret mevzusunda ve firmanın öteki alanlarda tarama yapması mevzusunda doyum olmadı.

Apple, iPhone’larda güvenliği artırmak için üç yeni özellik açıkladı


Apple, iPhone’larda güvenliği çoğaltmak için üç yeni özellik deklare etti

Teknoloji devi Apple, iPhone ürünlerinde güvenliği çoğaltmak için gelecek yıl üç yeni özellik sunacak! İşte detaylar..

Apple Yazılım Mühendisliği Başkan Yardımcısı Craig Federighi, Wall Street Journal’a CSAM tarama hususi durumunu kaldırdıklarını doğruladı. Beraber getirilen öteki özelliklerin ise hala kullanımda bulunduğunu belirtti. Ek olarak da ufaklıklara yönelik istismarı gerçekleşmeden önlemek için enerjilerini harcadıklarını deklare etti. Teknoloji devi, 2021 senesinde resmi internet sayfası üstünden de CSAM ile ilgili detayları kaldırmıştı. Fakat mevzuyla ilgili resmi bir izahat yapılmamıştı.

Apple ise mevzuyla ilgili şu açıklamalarda bulunmuş oldu:

“iCloud Fotoğrafları için daha ilkin önerdiğimiz CSAM idrak etme aracıyla ilerlememeye karar verdik. Firmalar kişisel verileri taramadan da çocuklar ve gençleri korumaya, mahremiyet haklarını korumaya ve interneti çocuklar ve tamamımız için daha güvenli bir yer haline getirmeye destek olmak için hükümetler, çocuk savunucuları ve öteki şirketlerle çalışmaya devam edeceğiz.”

Siz okuyucularımız bu mevzu hakkında ne düşünüyorsunuz? Sizce Apple’ın CSAM idrak etme hususi durumunu kaldırma mevzusunda verdiği doğru mu? Görüşlerinizi Yorumlar kısmında belirtebilirsiniz


Kaynak: teknolojipusulasi.com

Sosyal Medyada Paylaşın:

BİRDE BUNLARA BAKIN

Düşüncelerinizi bizimle paylaşırmısınız ?