首页 » SEO优化 » php感知哈希算法技巧_混进iOS 143网友爆出苹果CSAM检测技能出现哈希冲突

php感知哈希算法技巧_混进iOS 143网友爆出苹果CSAM检测技能出现哈希冲突

访客 2024-12-09 0

扫一扫用手机浏览

文章目录 [+]

编辑:Priscilla 好困

【新智元导读】苹果操持推出在iOS 15中运用的CSAM检测系统备受争议。
近日,一位Reddit用户创造CSAM算法竟被悄悄地「埋在了」iOS 14.3里。
而算法公开几小时后,一位英特尔实验室的研究员就创造了其存在的毛病:哈希冲突。

苹果偷偷将CSAM检测技能算法放进iOS14.3里!

php感知哈希算法技巧_混进iOS 143网友爆出苹果CSAM检测技能出现哈希冲突

前段韶光,苹果宣告操持推出CSAM检测技能,能够扫描所有存储在iCloud上的照片,找出符合虐待儿童、***内容的照片(CSAM)。

php感知哈希算法技巧_混进iOS 143网友爆出苹果CSAM检测技能出现哈希冲突
(图片来自网络侵删)

该功能本该在今年9-10月份上线,却被Reddit网友创造CSAM检测技能的算法NeuralHash已经混进了现在的系统里。

即便苹果的初衷是好的,但在大多数人眼里,苹果是在监视用户的一举一动。

新闻一发布,GitHub上就有超过6000多家组织和个人签署联名信,强烈训斥苹果这项陵犯个人隐私的新技能。

而德国有关部门也致信库克,希望苹果能够重新考虑CSAM检测操持。

但现在苹果却想要试图蒙混过关了吗?!

网友创造算法早已存在

昨日,Reddit用户AsuharietYgvar表示:

在iOS 14.3里,NeuralHash就已经隐蔽在稠浊类名里了。

Ygvar对隐蔽的API进行了一些挖掘和逆向工程,成功将MobileNetV3模型导出到ONNX。

还在Python中重修了全体NeuralHash算法,乃至可以在Linux上测试NeuralHash。

苹果的NeuralHash是一种基于神经网络的图像感知哈希方法,并且可以不受对图像大小的调度和压缩的影响。

https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX

哈希算法的步骤:

将图像转换为RGB。
调度图像大小为360x360。
将RGB值归一化为[-1, 1]范围。
对NeuralHash模型进行推理。
打算96x128矩阵与所产生的128个浮点的向量的点积。
对产生的96个浮点数向量运用二进制步骤。
将1.0和0.0的向量转换为比特,得到96位二进制数据。

AsuharietYgvar则列举了这便是苹果所采取的算法的证据。

首先,模型文件的前缀是NeuralHashv3b-,与苹果的文件中的术语相同。

(https://www.apple.com/child-safety/pdf/CSAM_Detection_Technical_Summary.pdf)

其次,苹果对算法描述的细节也与Ygvar的创造相同:

「第二,描述符被通报到一个哈希方案,将N个浮点数转换为M位。
这里,M远远小于 这里,M远远小于表示N个浮点数所需的比特数。

从下面这两段代码中可以看到,N=128,M=96。

此外,如果调度图片的大小或压缩图片,这个脚本产生的哈希值险些没有变革,这又和苹果的文件中描述的一样。

值得把稳的是,不同设备天生的哈希值会有几位的差异。

这是由于神经网络基于浮点打算,精度在很大程度上取决于硬件。

对付NeuralHash这种有200多层的网络来说,会导致大量的累积偏差。

哈希冲突

公开代码后的短短几小时内,英特尔实验室的研究职员Cory Cornelius就创造了两张毫无关联的照片竟然有一样的哈希值!

$ python3 nnhash.py NeuralHash/model.onnx neuralhash_128x96_seed1.dat beagle360.png59a34eabe31910abfb06f308$ python3 nnhash.py NeuralHash/model.onnx neuralhash_128x96_seed1.dat collision.png59a34eabe31910abfb06f308

哈希值同为59a34eabe31910abfb06f308

随后AsuharietYgvar也证明了这个创造。

哈希是将任意长度的数据映射到有限长度的域上,并使输出作为这段数据的特色。

同时,哈希算法所打算出来的哈希值(Hash Value)具有不可逆(无法逆向演算回原来的数值)的性子。

常日来说,哈希算法具有以下特点:

相同的输入一定得到相同的输出;不同的输入大概率得到不同的输出。

但是由于通过哈希函数产生的哈希值是有限的,当输入数据量达到一定的程度时,就会导致不同的数据在经由哈希函数处理之后产生相同的值。

这也就产生了哈希冲突。

然而,早在8月8日,有技能职员就指出,NCMEC采取的PhotoDNA感知哈希算法存在毛病。

也便是说,如果有人利用被NCMEC标注的图片的哈希值改变其他图片,那么任何存储这些图片的人都将拥有***制品。

https://www.hackerfactor.com/blog/index.php?/archives/929-One-Bad-Apple.html

微软表示「PhotoDNA的哈希值是不可逆的」。

https://www.microsoft.com/en-us/photodna

而实际上,PhotoDNA哈希值可以投射到26x26的灰度图像中,只是有点模糊,但细节足以识别人和物。

而且逆向PhotoDNA哈希值并不比解开26x26的数独题更繁芜,这是一项非常适宜打算机的任务。

同样,Cory Cornelius创造苹果的NeuralHash也能被同样的手腕欺骗。

利用模型得到狗图像的哈希值,然后让模型去改变灰度图像,使其输出与狗图像相同的哈希值。

根据鸽巢事理可知,这是一个第二次原像攻击问题。

对此,加州大学伯克利分校的高等研究员Nicholas Weaver表示:「这只是用一些垃圾图像骚扰苹果的相应团队而已」。

而SIXGEN公司网络产品总监Ryan Duff说:「看起来苹果的算法相称随意马虎受到原像攻击」。

阐明?狡辩?

苹果在一份白皮书中阐明,CSAM检测技能将在用户的设备上运行。

检测技能会扫描用户上传到iCloud上的照片,将图像转换成哈希值后,与已知CSAM照片的哈希数据库进行比对。

如果两者哈希值匹配次数超过30次,系统就会标记这个图像,由团队审查。

而英特尔实验室研究职员创造两张图片哈希值相同后,苹果作出的阐明是:

GitHub剖析的版本只是一个通用版本。

如果照片30次的哈希值比对都一样,CSAM检测技能还有另一个非公开的算法。

「非CSAM图像被对抗性滋扰,令NeuralHash与设备上加密但CSAM数据库相匹配,导致超过了匹配阈值,这个可能性很低,但这个独立的哈希便是为了避免涌现这种可能性。

照这么说,Ygvar逆向出来的代码发生哈希冲突也没有关系,苹果还有「双保险」。

但是,苹果彷佛没有get到重点:

CSAM检测技能已经悄悄地安排上了。

参考资料:

https://www.reddit.com/r/MachineLearning/comments/p6hsoh/p_appleneuralhash2onnx_reverseengineered_apple/

https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX

标签:

相关文章

php对接dll技巧_DLL 注入技能的 N 种姿势

本文中我将先容DLL注入的干系知识。不算太糟的是,DLL注入技能可以被正常软件用来添加/扩展其他程序,调试或逆向工程的功能性;该技...

SEO优化 2024-12-11 阅读0 评论0