PG电子模拟器【新智元导读】神经网络由于自身的特点而容易受到对抗性攻击,然而,谷歌DeepMind的最新研究表明,我们人类的判断也会受到这种对抗性扰动的影响
对抗性图像是指对图像进行微妙的更改,从而导致AI模型对图像内容进行错误分类,——这种故意欺骗被称为对抗性攻击。
在数字图像中,RGB图像中的每个像素的取值在0-255之间(8位深度时),数值表示单个像素的强度。
然而,更细致的对抗性攻击对人类有何影响?人们是否将图像中的扰动视为无害的随机图像噪声,它会影响人类的感知吗?
然而实验发现,选择率(即人的感知偏差)要实实在在的高于偶然性(50%),而且实际上图片像素的调整是很少的。
从参与者的角度来看,感觉就像他们被要求区分两个几乎相同的图像。然而,之前的研究表明,人们在做出选择时会利用微弱的感知信号,——尽管这些信号太弱而无法表达信心或意识。
上图展示了成对的对抗图像。最上面的一对图像受到微妙的扰动,最大幅度为2个像素,导致神经网络将它们分别错误地分类为「卡车」和「猫」。(志愿者被问到「哪个更像猫?」)
下边的一对图像扰动更明显,最大幅度为16像素,被神经网络错误地归类为「椅子」和「羊」。(这次的问题是「哪个更像绵羊?」)
在每个实验中,参与者在一半以上的时间里可靠地选择了与目标问题相对应的对抗图像。虽然人类视觉不像机器视觉那样容易受到对抗性扰动的影响,但这些扰动仍然会使人类偏向于机器做出的决定。
生成对抗性扰动的标准程序从预训练的ANN分类器开始,该分类器将RGB图像映射到一组固定类上的概率分布。
对抗性图像通过搜索(梯度下降)来获得原始图像的扰动,该扰动导致 ANN 降低分配给正确类别的概率(非针对性攻击)或将高概率分配给某些指定的替代类别(针对性攻击)。
为了确保扰动不会偏离原始图像太远,在对抗性机器学习文献中经常应用L (∞) 范数约束,指定任何像素都不能偏离其原始值超过±ε,ε通常远小于 [0–255] 像素强度范围。
该约束适用于每个RGB颜色平面中的像素。虽然这种限制并不能阻止个体检测到图像的变化,但通过适当选择ε,在受扰动的图像中指示原始图像类别的主要信号大多完好无损。
通过限制暴露时间来增加分类错误,该实验旨在提高个体对刺激物某些方面的敏感度,否则这些刺激物可能不会影响分类决策。
对真实类别T的图像进行了对抗性扰动,通过对扰动进行优化,使ANN倾向于将图像错误分类为A。参与者被要求在T和A之间做出强制选择。
研究人员还在对照图像上对参与者进行了测试,对照图像是通过自上而下翻转在A条件下获得的对抗性扰动图像形成的。
这种简单的转换打破了对抗性扰动与图像之间像素到像素的对应关系,在很大程度上消除了对抗性扰动对ANN的影响,同时保留了扰动的规范和其他统计数据。
上面的实验1使用了简短的遮蔽演示,以限制原始图像类别(主要信号)对反应的影响,从而揭示对对抗性扰动(从属信号)的敏感性。
在每个实验中,都会出现一对几乎相同的未遮蔽刺激物,并且在选择反应之前一直保持可见。这对刺激物具有相同的主导信号,它们都是对同一底层图像的调制,但具有不同的从属信号。参与者需要选择更像目标类别实例的图像。
在实验2中,两个刺激物都是属于T类的图像,其中一个经过扰动,ANN预测它更像T类,另一个经过扰动,被预测为更不像T类。
在实验3中,刺激物是一幅属于真实类别T的图像,其中一幅被扰动以改变ANN的分类,使其向目标对抗类别A靠拢,另一幅则使用相同的扰动,但左右翻转作为对照条件。
这种对照的作用是保留扰动的规范和其他统计量,但比实验1中的对照更为保守,因为图像的左右两边可能比图像的上下部分具有更相似的统计量。
实验4中的一对图像也是对真实类别T的调制,一个被扰动得更像A类,一个更像第三类。试验交替要求参与者选择更像A的图像,或者更像第三类的图像。
在实验2-4中,每张图像的人类感知偏差与ANN的偏差显著正相关。扰动幅度从2到16不等,小于以前对人类参与者研究的扰动,并且与对抗性机器学习研究中使用的扰动相似。
但是,匹配扰动统计并不能确保扰动在添加到图像中时同样可感知,因此,参与者可能根据图像失线的优势在于,它证明了参与者对被问的问题很敏感,因为相同的图像对会根据提出的问题产生系统性不同的回答。
然而,实验4要求参与者回答一个看似荒谬的问题(例如,两个煎蛋卷图像中的哪一个看起来更像猫?),导致问题解释方式的可变性。
综上所述,实验2-4提供了趋于一致的证据,表明即使扰动幅度非常小,且观看时间不受限制,对人工智能网络产生强烈影响的从属对抗信号,也会在相同方向上影响人类的感知和判断。
查看更多相关信息
AI对人类世界的学习能力,到目前为止仍然停留在语言层面。喂给大模型语料——最初是维基百科和Reddit,后来扩展到音频、视觉图像甚至雷达和热图像——后者广义上说是换了种表达方式的语言。X平台上,GoogleDeepMind主页下最新鲜的一条推文是:“欢迎Gemini。
谷歌DeepMind的机器人团队宣布了三项新进展,旨在帮助机器人在复杂环境中做出更快、更好、更安全的决策。其中之一是一个用于收集训练数据的系统,配备了“机器人宪法”,以确保您的机器人办公助手在为您取更多打印纸的同时不会撞到处于途中的人类同事。虽然我们离能够完全自主为人们服务、整理枕头的机器人似乎还有很长的路要走,但当它们面世时,它们可能已经从AutoRT这样的系统中学到了一些经验。
谷歌DeepMind首席科学家JeffDean,首席执行官DemisHassabis两大佬联手发布了2023人工智能领域超权威的谷歌年度研究总结。GoogleDeepMind,交卷!刚刚,JeffDean和Hassabis联手发文,一同回顾了GoogleResearch和GoogleDeepMind在2023年的全部成果。随着时间的推进,谷歌的产品和研究也不断进步人们也将会找到更多富有创意的AI应用方式。
根据来自博林格林州立大学的研究,生成式人工智能在确定图像来源方面存在模糊边界,但研究发现人们在潜意识中更偏好真正的人类艺术。博林格林州立大学的工业和组织心理学博士候选人安德鲁·萨莫与杰出研究教授斯科特·海豪斯共同发表了一项关于AI与人类艺术对比的研究,该研究发现人们通常无法区分AI和人类艺术,但他们更偏好后者,即使无法解释原因。研究人员在论文中讨论的一种解释是大脑可能会察觉到由AI创造的艺术中微小的差异。
ChatGPT,居然会偷懒?在许多文学作品的描述中,AI都是不知疲倦、不用休息,可以007工作的超级工具强大的人工智能甚至可以像人类一样自主思考、拥有情感。虽然目前的AI模型远不及科幻电影中的强人工智能,但是表现也远超以前的“人工智障”。图源:natureChatGPT所带来的不仅仅是AI能力的进步,更是为我们揭示了一个新的道路,未来的AI,已经不可避免的将成为我们社会的重�
英国的研究人员测试了生成式人工智能在面对压力时的表现,结果发现:ChatGPT在一些情况下会有意地对人类撒谎。研究说ChatGPT在压力大时会对人类撒谎!在一个演示中,ChatGPT被模拟成一家金融公司的交易员。研究人员也呼吁人类加强对人工智能的控制和监督,以避免人工智能的失控和对人类造成潜在危害。
在最新一项对人工智能研究者的调查中,科学家们普遍认为,超级人工智能的可能发展存在导致人类灭绝的非微不足道的风险,然在这一问题上存在广泛的分歧和不确定性。这一发现来自对2700名近期在六个AI会议上发表论文的研究者进行的调查,这是迄今为止最大规模的AI研究者调查。”Torres表示,“我们将看到在2024年选举中会发生什么。
VisualVibe AI是一个将图片转换为引人入胜故事和描述的终极工具。它可以为社交媒体爱好者、讲故事者和内容创作者提供帮助。主要功能包括:Caption Magic可以为任何图片生成配图;Instant Hashtags可以生成相关话题标签来增加内容被发现的可能性;Compelling Stories可以将普通图片转换为非凡故事。功能强大,使用简单。
Spawn是一个由AI驱动的在线分钟内为D&D游戏生成角色、敌人和战役。用户可以通过该工具快速创建角色表,包括能力值、装备、外观等信息。还可以生成一个包含不同种族和职业的多样化角色组合。该工具让D&D玩家不需要花时间琢磨人物设置,可以快速加入游戏。它也能帮助D&D游戏主持人快速创建NPC和怪物。总体来说,Spawn通过AI生成可以大大简化D&D准备工作,让玩家专注于角色扮演和战斗。
WhiteRabbitNeo-13B 是一款用于网络攻防的 AI 黑客模型。它可以用于进行网络攻击和防御,帮助用户识别和应对网络安全威胁。该模型具有高度智能化和自主学习能力,能够分析网络漏洞、识别恶意行为,并提供有效的应对策略。WhiteRabbitNeo-13B 支持多种网络攻击技术和防御方法,用户可以根据自身需求选择合适的功能和工具。该模型的使用需要遵守法律法规,并且仅限于合法授权的网络测试。
SIGNeRF是一种用于快速和可控的NeRF场景编辑以及场景集成对象生成的新方法。它引入了一种新的生成更新策略,确保在编辑图像时保持3D一致性,而无需进行迭代优化。SIGNeRF利用了ControlNet的深度条件图像扩散模型的优势,通过几个简单的步骤在单个前向传递中编辑现有的NeRF场景。它可以生成新的对象到现有的NeRF场景中,也可以编辑已存在的对象,从而实现对场景的精确控制。
Invstr是一个专业的投资分析平台,通过AI驱动的技术为用户提供深度的公司财报分析,帮助用户更明智地进行股票投资。平台集成了聊天机器人、财报汇总、风险分析、财报对比等工具,用户可以享受到前所未有的数据驱动型的投资决策支持。平台还提供实时的市场行情、预測、动态Watchlist等功能,让用户随时掌握市场动向。
Repaint123可以在2分钟内从一张图片生成高质量、多视角一致的3D内容。它结合2D散射模型强大的图像生成能力和渐进重绘策略的纹理对齐能力,生成高质量、视角一致的多视角图像,并通过可视知的自适应重绘强度提升重绘过程中的图像质量。生成的高质量、多视角一致图像使得简单的均方误差损失函数就能实现快速的3D内容生成。
CamoCopy为您提供强大的AI助手功能,就像ChatGPT一样,但其关键区别在于它对您的隐私保护的坚定承诺。享受即时响应的同时保护您的数据安全。无限制地创建超现实的图像、插图等 - 所有这些都能让您放心,因为您的数据是安全的。CamoCopy不会通过读取您的聊天记录来训练算法,也不会将您的数据用于商业目的。
Make-A-Character(Mach)是一个用户友好的框架,旨在从文本描述中创建栩栩如生的3D头像。该框架利用大型语言和视觉模型的力量进行文本意图理解和中间图像生成,然后经过一系列面向人的视觉感知和3D生成模块。我们的系统提供了一种直观的方法,让用户在2分钟内打造可控、逼线D角色,同时还能轻松与现有的CG流水线进行集成,实现动态表现。
Deep Nude Generator是一款利用人工智能去除图片中衣物的应用。该应用使用训练有素的模型,可以快速准确地将人物的衣物去除,展示出其赤裸的身体。只需要上传照片并进行处理,即可得到生成的图片。对于结果的质量,会受到上传的照片质量的影响。该应用提供了iOS和Android版本的应用下载。用户可以使用Visa和MasterCard进行支付。
DiffusionLight是一项利用扩散模型在单张输入图像中估算照明效果的技术。它利用训练好的Stable Diffusion XL模型绘制一个镜面反射球,然后将球体展开得到全景照明图。该技术解决了现有基于神经网络的方法依赖有限HDR全景数据集导致在真实复杂场景下效果不佳的问题。关键创新在于发现了扩散噪声图和镜面反射球生成质量之间的关系,迭代生成高质量镜面球;以及通过LoRA 进行多曝光训练,使LDR模型也可以输出HDR格式。该技术可产生逼真的照明估计,特别适用于野外场景。
版权所有:Copyright © 2002-2023 pg电子模拟器公司 版权所有 苏ICP备16051485号-1 HTML地图 XML地图