人工智能安全评测平台AIcert是浙江大学区块链与数据安全全国重点实验室人工智能数据安全团队在科技部科技创新2030-“新一代人工智能”重大项目等多个国家级/省部级项目以及浙江大学区块链与数据安全全国重点实验室的共同支持下研发的基于AI系统行为安全验证理论、模型自动建模开发、六维综合量化评估等先进技术实现的多层面全方位全栈安全评测平台。
AIcert解决了从数据到系统、从算法开发到系统部署的多层面全方位安全检测技术覆盖,实现了包括数据质量评估、算法安全验证、模型安全评测、框架安全度量、系统安全检测在内的五大5核心层面的AI系统全栈安全评测体系与技术平台。
- 可视化、形式化的理论验证;
- 高效率、自动化的安全开发;
- 多维度、系统化的量化分析。
https://github.com/ZJUICSR/AIcert.git
或
https://gitee.com/aisecurity/AIcert.git
python环境要求
python>=3.7, <3.10
安装依赖
cd AIcert
pip install -r requirement.txt
下载数据集、预训练模型
AIcert提供了前端展示界面,运行代码:
python main.py --port 端口
使用Google浏览器打开界面
-
dataset:数据集缓存目录,可下载数据集到目录下,如MNIST\CIFAR10等;
-
function:功能代码目录,存放调用脚本与算法代码;
-
model: 模型训练代码与预训练模型缓存目录;
-
output: 功能输出路径,任务中心在output中获取执行结果;
-
utils:函数工具库;
-
web:前端文件;
Thanks goes to these wonderful contributors:
如果你有任何疑问或需要帮助,请随时联系我们。
AIcert基于MulanPSL-2.0协议,关于协议的更多信息,请参看LICENSE文件。