Apple, iPhone fotoğraflarını tarayacağını söyleyerek büyük bir tartışmaya yol açmıştı. Birçok kişi bunun veri ihlalleri yaratacağını düşünüyordu. ABD’li teknoloji devi Apple ise çocuk istismarını engellemek için böyle bir karar aldıklarını ifade etti. Böylece fotoğrafların taranması hiç kimsenin itiraz edemeyeceği bir zemine oturtuldu.
SİSTEM ERTELENDİ
iPhone iCloud platformuna yüklenen fotoğraf ve videolar Apple tarafından tek tek taranabilecek. Böylece çocuk istismarı ihtimali bulunan fotoğraflar hızlı bir şekilde kolluk kuvvetlerine bildirilecek. Apple ilk etapta bu özelliği hemen uygulayacağını ifade etti. Ancak aldığı yeni karar ile birlikte bu sistemi erteledi.
Yapılan açıklamalara bakıldığında Apple şirketinin bu sistemi çok daha kararlı hale getirmek için ertelediği ifade ediliyor. CSAM olarak bilinen sistem yapay zeka yardımıyla tüm fotoğraf ve videoların gözden geçirilmesini sağlıyor. Burada yer alan bazı küçük detaylar sayesinde çocuk istismarı olup olmadığı ortaya çıkıyor.
Her ne kadar olumlu bir gelişme gibi görünse bile aslında veri ihlallerine yol açma ihtimali son derece yüksek. Kullanıcılar fotoğraf ve videolarının taranmasını istemiyor. Ancak Apple böyle bir şey şart koşunca ne yazık ki yerine getirmek zorunda kalacaklar. iCloud platformuna yüklenecek tüm fotoğraf ve videolar yapay zeka taramasından geçecek.
APPLE AKILLI PAZARLARA ÖNCÜLÜK EDİYOR!
Apple şimdilik bu özelliği ertelediğini ifade etti. Ancak bunun kesinlikle bir vazgeçiş olmadığını belirtelim. Şirket sadece erteleme kararı aldı. Peki sizce Apple tarafından fotoğraf ve videoların taranacak olması doğru mu? Yorumlar bölümünden fikirlerinizi bizlerle paylaşabilirsiniz.
KAYNAK: DONANIM GÜNLÜĞÜ
Yorumcuların dikkatine… • İmlası çok bozuk, • Büyük harfle yazılan, • Habere değil yorumculara yönelik, • Diğer kişilere hakaret niteliği taşıyan, • Argo, küfür ve ırkçı ifadeler içeren, • Bir iki kelimelik, konuyu zenginleştirmeyen, yorumlar KESİNLİKLE YAYIMLANMAYACAKTIR. |
Bunlar da ilginizi çekebilir...