对抗样本常见攻击算法与模拟——CW

参考论文: Carlini, Nicholas , and D. Wagner . "Towards Evaluating the Robustness of Neural Networks." Security & Privacy IEEE, 2017. CW算法 CW通常被认为是攻击能力最强的白盒攻击算法之一,同时也是一种基于优化的对抗样本生成算法。大多数文献将其归类为是基于梯度的攻击算法,和deepfool,FGSM同为一类。而实际上它是一种基于优化的对抗样本生成算法。 作者公开了源码,可以在github 上查到。

对抗样本常见攻击算法与模拟——JSMA

> 参考论文 Deep Inside Convolutional Networks: Visualising Image Classification Models and Saliency Maps 在学习JSMA算法之前,先要看一下什么是显著图。显著图的概念是在上文中提及的,该论文的中文直译是:“深入CNN——可视化图片的分类模型以及显著图”。作者在文中提出了两种可视化的技术。一种是生成一张图片,使其类得分最大,第二种是计算某张图片对应的显著图。

对抗样本常见攻击算法与模拟——DeepFool

相关论文 Moosavi Dezfooli, Seyed Mohsen and Fawzi, Alhusseinand Frossard, Pascal, DeepFool: a simple and accurate method to fool deepneural networks, CVPR 2016. DeepFool也是一种基于梯度的白盒攻击算法。通常作为一种无定向的攻击算法使用,对于FGSM而言,DeepFool不用指定学习率$\epsilon$ 算法本身可以算出相对FGSM跟小的扰动来达到攻击目的

ECC 椭圆曲线加密算法学习————安全性问题与实战

之前学习了ECDSA 和 ECDH 算法。不难发现椭圆曲线的离散对数难题对该密码的安全性有着多么重要的作用。之前谈及,椭圆曲线的离散对数难题非常难,尽管如此,也应该有些方法可以解开这个问题。就好像对于模运算的密码系统,比如RSA而言,可以用yafu工具来强解,也可以上某网站查表,也包括一些共模攻击,小指数攻击等方法。

ECC 椭圆曲线加密算法学习————ECDH与ECDSA

之前学习了实数域上的椭圆曲线与有限域$\mathbb {F}_{p}$上的椭圆曲线。详细可以参考ECC椭圆加密算法学习————从实数域到有限域的椭圆曲线。 不难发现,在实数域的标量乘法看上去是一个“简单”的问题,但是在有限域$\mathbb {F}_{p}$就显得非常困难。本文主要讨论如何将之前所学的运用于加密问题中。

ECC 椭圆曲线加密算法学习————从实数域到有限域的椭圆曲线

我好像很久没有自己学点东西了,从寒假上来就一直在做期末大作业然后考试。现在算是考完了,但是也要意味着考研复习要彻底拉开帷幕了。很多想去复现的CVE只能在计划本上越排越后面。有个东西一直想去看看,就是ECC。上学期学了数论的选修课

复旦2020计算机学院机试题

A 斗牛 描述 给定五个 0~9 范围内的整数 a1, a2, a3, a4, a5。如果能从五个整数中选出三个并且这三个整数的和为10 的倍数(包括 0),那么这五个整数的权值即为剩下两个没被选出来的整数的和对 10 取余的结果,显然如果有多个三元组满⾜和是 10 的倍数,剩下两个数之和对 10 取余的结果都是相同的;如果选不出这样三个整数,则这五个整数的权值为 -1。

[复试准备] 对抗样本知识点

对抗样本基础 定义 对抗样本(adversarial example)是指在原数据集中通过人工添加肉眼不可见或在经处理不影响整体的肉眼可见的细微扰动所形成的样本,这类样本会导致训练好的模型以高置信度给出与原样本不同的分类输出

[复试准备]机器学习 知识点整理

二分类问题 损失函数:计算的是一个样本的误差 代价函数:是整个训练集上所有样本误差的平均 目标函数:代价函数 + 正则化项 $$L(\bar{y},y) = -(ylog(\bar{y})+(1-y) log(1-\bar{y}) $$ 01损失分类误差: f(x)>K : 1 | f(x)

$Ghost$ Blog 折腾笔记

我最终放弃了Wordpress,花了大半天时间折腾了一个新的博客。锵锵!!