月初我表达过对AI内容投毒(图片,视频)越来越无法分辨的担忧,今天看到 @brevis_zk 搞了个新系统通过ZK来解决这个问题,太与时俱进了,必须点个赞。
这个Vera系统的思路从传统的用AI去识别AI的军备竞赛怪圈里跳了出来,直接去让媒体内容本身来证明其来源和经历过什么处理过程。
已知每张图片拍摄其实硬件都会生成不可篡改的元数据,但问题是现在最终发布在各个地方的内容很少是未经处理的原始媒体素材。比如我拍张自拍然后美图秀秀一下,数据就没了。
所以时不时能有办法还记录编辑行为且不可逆呢?这样不就能解决真实性与编辑之间的冲突了吗?
Vera就是这样干的,目前首个版本已与开源图像编辑库完成集成,支持多种常见的编辑与转换操作。只要使用支持的开源编辑工具库,你把素材放进去编辑的时候,Brevis 的 Pico zkVM(零知识虚拟机)可以像监考老师一样,盯着工具里处理图片的每一个数学步骤。
当你在把一张图变暗时,Vera 会生成一个数学证明,说:“我保证这张变暗的图,真的是由那张原始 C2PA 照片通过该工具的‘变暗’算法算出来的,中间没有加别的东西(比如换脸)。
这样就能证明没有造假行为出现了。Brevis 正在与多款面向消费者的主流图像与视频编辑应用展开合作讨论支持,后续如果跟Photoshop,Instagram,Tiktok之类的编辑器整合一下,那么目前主流的自媒体平台里泛滥的假视频,AI视频 就可以相对比较容易与真内容区别开 -- 直接看有没有打“真实性tag”就行了。
Brevis这个技术还是可以的,直接打中了痛点,完全有出圈的可能啊