查看原文
其他

Github项目分享 | llm-guard:LLM交互安全工具包

灵度智能
2024-09-09

分享Github上有用且有趣的开源项目。


LLM-Guard是一个综合工具,旨在加强大型语言模型(LLMs)的安全性。


Github地址:https://github.com/laiyer-ai/llm-guard


什么是LLM Guard?

通过提供消毒、有害语言检测、防止数据泄漏和抵抗及时注入攻击,LLM-Guard确保您与llm的交互保持安全可靠。


安装


通过下载软件包并获取en_core_web_trf spaCy模型(匿名扫描器必不可少)来开始您的LLM Guard之旅:

pip install llm-guardpython -m spacy download en_core_web_trf


开始


重要提示:

  • LLM Guard旨在轻松集成和部署在生产环境中。虽然它已经准备好使用开箱即用,但请知悉我们正在不断改进和更新存储库。

  • 基本功能需要有限数量的库。当您探索更多高级特性时,将自动安装必要的库。

  • 确保你使用的是3.8.1或更高版本的Python。确认输入:python——version。

  • 库安装问题?考虑升级pip: python -m pip install——upgrade pip。

▌关于我们

灵度智能,我们致力于提供优质的AI服务,涵盖人工智能、数据分析、机器学习、深度学习、强化学习、计算机视觉、自然语言处理、语音处理等领域。提供AI课程、AI算法代做、论文复现、远程调试等服务。如有相关需求,请私信与我们联系。


我们的愿景通过创新创意和智能技术为客户提供卓越的解决方案,助力产业升级和数字化转型。我们的产品和服务将引领行业标准,创造卓越的用户体验。我们的团队致力于创造更智能、更便捷和更高效的生活方式,推动社会进步,致力于创造更美好的未来。

淘宝店铺:公众号后台回复“淘宝”获取店铺地址
商务合作:发送邮件至lingdu_tech@163.com邮箱

关注【灵度智能】公众号,获取更多AI资讯。


继续滑动看下一个
灵度智能
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存