多重身份验证 (MFA) 是安全大语言模型 (LLM) 系统的关键。这些系统拥有关键数据,面临 API 弱点等特殊风险,并且需要对谁进入进行严格检查。微软表示,MFA 可以阻止超过 99.9% 的帐户攻击,使其成为确保 LLM 领域安全的必备条件。
将 MFA 应用于所有方面(用户帐户、API、管理工具)。 将 MFA 与基于角色的检查相结合以设置访问限制。 观察并记录谁进入以发现奇怪的行为。 使用云中的 MFA 工具(例如 Azure AD、AWS IAM)来满足不断增长的需求。 自动管理用户以简化启动和停止。 - 将 MFA 应用于所有方面(用户帐户、API、管理工具)。 - 将 MFA 与基于角色的检查相结合以设置访问限制。 - 观察并记录谁进入发现奇怪的行为。 - 使用云中的 MFA 工具(例如 Azure AD、AWS IAM)来满足不断增长的需求。 - 自动管理用户以简化启动和停止。 - 将 MFA 应用于所有方面(用户帐户、API、管理工具)。 - 将 MFA 与基于角色的检查相结合以设置访问限制。 - 观察并记录谁进入发现奇怪的行为。 - 使用云中的 MFA 工具(例如 Azure AD、AWS IAM)来满足不断增长的需求。 - 自动管理用户以简化启动和停止。
通过将 MFA 放在首位并使用这些步骤,团体可以构建安全、大型的 LLM 系统,以降低风险并遵守规则。
为了确保大型语言模型 (LLM) 系统中每种方式的安全,关键是在所有点(用户屏幕、API、工具和网络链接)使用多重身份验证 (MFA)。此步骤可确保 LLM 设置具有完全的安全性。
LLM 系统中的每一种方式都需要安全。使用强大的 MFA 和更多步骤来确保 AI 处理用户信息、管理工具和网络链接的安全。例如,这些人工智能点可以使用 API 密钥、OAuth 或 JWT 令牌,以便只有允许的人才能进入。
具有较高访问权限的管理工具需要更加小心。为谁进入制定规则,检查谁通过,并保留使用这些工具的所有用户和应用程序的日志。限制可以访问这些系统的次数并观察是否发生奇怪的事情。使用零信任,每一步都需要检查和编码,以使其更加安全。
将 MFA 与基于角色的访问 (RBAC) 结合使用可以提高 LLM 工作的安全性。这种组合可以检查某人是谁,同时确保他们只能去他们的角色允许他们去的地方。
为所有人设定明确的角色 - 开发人员、工程师、API 用户和老板。不断检查谁可以做什么,以确保他们只能做他们需要做的事情。关闭那些不使用其帐户的人的访问权限以降低风险。
观察登录和其他操作的发生方式对于发现和处理可能的危险非常重要。保留详细的访问日志并查找奇怪的模式。
日志应该显示登录成功和失败的时间,有助于发现问题,例如奇怪的提示以进行更多调查。当发生奇怪的事情时设置快速警报。此外,针对人工智能特定问题制定计划,并使用工具来监视法学硕士系统中的奇怪模式或网络奇怪点。 Azure Sentinel 等高级程序可以查看来自 LLM 系统的大量数据,发现安全问题的隐藏迹象。
当您在大型系统中使用多重身份验证 (MFA) 时,您希望确保其功能强大且易于使用。目的是使您的系统更安全,同时又不给用户带来困难。
云工具有助于在大型设置中轻松管理 MFA。 Azure Active Directory、AWS IAM 和 Google Cloud Identity 等工具可让您一次登录所有部分,确保每个条目都是安全的并且能够很好地组合在一起。
当您设置谁可以进入什么内容时,请使用“最少访问权限”规则。例如,让创作者只到达他们需要的部分,而运行事物的团队成员可能需要看到更多。并且不要忘记:“在任何地方都开启 MFA!”
使用云日志来关注 API 使用情况以及用户的行为。这些日志可以帮助您的安全工具快速发现奇怪的行为。确保与您的大系统的所有对话都是秘密的,这样任何人都无法获取重要数据,例如提示和答案。三星的故事是一个警告——工人们偶然将敏感代码放在 ChatGPT 上,泄露了关键信息,导致该公司停止使用它。
对于有很多集装箱的地方,有一种方法来检查谁进入是关键。
具有容器的系统需要服务之间的安全对话。使用 MFA 可以减少 99.9% 的机器人攻击,使其成为确保您的设置安全的关键举措。
API 网关是观察谁可以进入、谁不能进入的主要场所。网关不会让每个小型服务处理安全性,而是确保仅允许的请求通过,从而确保整个设置的安全性顺利进行。
Kubernetes 等工具可以帮助制定规则,例如需要 MFA 才能进入容器。在容器设置中设置角色可以将不需要的条目减少 60% 以上。查看您的容器设置,找到 MFA 的关键点,尤其是关键数据所在位置或做出重大决策的位置。
使用双向 TLS (mTLS) 也确实降低了中间人攻击的风险 - 通过这种方式,组织的风险降低了 70%。当服务必须相互确定时,这很有效。
随着大型系统的发展,自动添加和删除用户有助于保持 MFA 良好运行。手动执行此操作需要花费大量时间并且可能存在风险。例如,不到十分之一的公司自动为新员工添加应用程序,而超过 80% 的公司使用电子邮件和表格等简单方式来管理进入。
坚持旧的方式可能会造成巨大的安全漏洞。例如,当人们离开时,如果您阻止他们的访问速度较慢,他们的帐户可能会保持打开状态太长时间。事实上,60% 的公司认为手动添加、调动或删除人员非常麻烦。
机器可以通过将人力资源工具与身份护理网站相结合来解决这些问题。当新员工加入时,他们会立即进行帐户设置并启动 MFA。而且,当有人离开时,他们的路就会很快被切断。使用机器执行 JML 任务可以将艰苦工作的需要减少多达 70%。
确保您的 HR 工具是 ID 更改的主要场所。使用 SCIM 等简单规则使帐户设置和关闭顺利进行,并与 ServiceNow 等 IT 帮助工具一起处理从创建帐户到取回设备的整个过程。
人工智能运行的身份识别场所可以通过观察用户的行为、发现有风险的进入尝试并告知降低风险的步骤来更好地保证安全。
__XLATE_24__
“安全不是一次性事件。而是一个持续的过程。” ——约翰·马洛伊
从简单的任务开始,慢慢发展你的自动化工作。首先处理平常的工作,然后处理罕见的任务和特殊情况。这种循序渐进的方式不仅使您的安全任务变得简单,而且随着时间的推移,您的 LLM 系统的保护也会变得更好。
将 MFA 纳入 LLM 设置可能很困难。许多团体都面临着使用缓慢并惹恼用户的障碍。然而,有了良好的计划,您就可以很好地解决这些问题。
对 MFA 的一大抱怨是它会阻碍工作流程。经常要求检查可能会分散注意力,尤其是在快速访问模型和 API 是关键的情况下。
自适应 MFA 可以根据用户的行为方式、所在位置或使用的设备来调整安全步骤,从而帮助解决此问题。手指触摸或面部检查等生物识别方式可以进行快速检查,避免了与短信代码相关的阻碍,短信代码可以被切入。例如,将单点登录 (SSO) 与智能检查相结合可以减少 MFA 要求,同时保持安全性。
关键是不要仅仅依赖短信代码。由于 SIM 卡更改或削减等危险,这些并不那么安全。选择应用程序代码、安全密钥或生物识别选项等选项,以提高安全性和便利性。
对于关键设置,MFA 必须始终处于开启状态。选择它可能会让你的团队面临巨大的风险。
"MFA should be handled in a way that improves the authentication process and makes it seamless for your employees. One way to do this is by incorporating adaptive MFA." – Heidi King, Author, Strata.io
"MFA should be handled in a way that improves the authentication process and makes it seamless for your employees. One way to do this is by incorporating adaptive MFA." – Heidi King, Author, Strata.io
一旦我们让用户变得简单,下一步就是将 MFA 很好地添加到您的 LLM 工作的所有部分中。
LLM 步骤通常需要机器人、API 调用和多种工作 - 如果您添加了错误的身份验证步骤,所有这些都可能会中断。关键是将 MFA 放入您的系统中,而不停止它们的工作方式。
对于需要快速 API 对话、服务帐户和强大的令牌维护的步骤,可确保一切安全,而无需实际操作 MFA。这对于机器人和 API 聊天来说非常有用。此外,MFA 应该与容器领导者、版本检查和 CI/CD 流程等工具很好地结合起来,以保持一切顺利。
在像 Promps.ai 这样以付费模式处理代币和现场工作的网站上,MFA 应该快速检查用户,以阻止模型猜测或制作内容等步骤的阻碍。
循序渐进的启动方式是好的。从法学硕士设置的关键部分开始,例如模型训练点和敏感数据点。慢慢地引入更多的 MFA,在问题出现时解决它们,而不会弄乱整个系统。
获得 MFA 不仅仅是一次性的事情。随着您的法学硕士设置的发展,您需要密切关注并保持更新以确保安全。
每三个月检查一次并观察登录位以发现奇怪的动作。为许多失败的登录尝试设置警报,以便及早发现不良内容。
当您引入新模型、API 或将事物加入 LLM 列表的方法时,测试匹配是关键。测试每个新添加的登录路径,以确保所有部分都匹配良好。
让您的 MFA 保持最新的安全位,如果您的设置涉及敏感数据或拥有的模型,则更是如此。经常教导用户是关键 - 新人需要知道如何正确使用 MFA。
另外,请保留您的 MFA 设置的清晰记录。这可以确保您的团队知道如何快速、安全地修复和处理问题。
处理这些测试是构建大型且安全的法学硕士课程的关键。虽然进入 MFA 从一开始就需要付出努力,但阻止糟糕的休息所带来的良好、长期的结果比最初的努力更有价值。
为了确保大语言模型 (LLM) 的安全,使用多重身份验证 (MFA) 是关键,尤其是当更多的团体依赖这些系统来执行重要任务时。现在是加强安全以保持强大并为应对即将到来的风险做好准备的时候了。下一部分将讨论顶级 MFA 方法,这些方法有助于在威胁不断变化的世界中保持安全。
为了获得强大的安全性,团体必须在从在线电子邮件到运行 LLM 设置的高级系统的任何地方使用 MFA。在任何地方都这样做可以弥补弱点并使登录步骤更强大。
通过使用基于 MFA 的作业的访问控制,公司可以构建适合每个用户需求的安全设置。例如,普通用户可能会在手机上获得代码,但关键区域的老板应该使用硬令牌或扫描面部或手指等物体。
始终监视和跟踪谁签入和签出也很重要。这可以让您看到是否发生了奇怪的事情或者是否有人试图犯错。 NIST 等指南规定至少每年检查和更新访问规则,并要求每 30 天对网络应用程序进行 MFA 检查,即使是在您信任的设备上也是如此。
虽然 MFA 现在可以满足当今的安全需求,但它也必须为新问题做好准备。自适应身份验证根据风险改变安全性,是明智之举。这已经阻止了超过 99.99% 的帐户攻击。
人工智能等用于发现威胁的新技术以及无需密码登录的方法也提高了安全性。诸如与设备绑定的钥匙和面部扫描之类的东西在大型工作环境中变得越来越常见,主要是针对 Prompts.ai 等按即用即付计划进行管理的工具。
使用零信任理念(始终检查身份和设备)突破了旧的安全限制,使防御变得更加强大。
良好地使用 MFA 不仅仅是保证安全,还可以带来更多信任和信心。这一点至关重要,因为典型用户现在要处理 40 多个手机应用程序。这些步骤不仅可以保证法学硕士设置的安全,还可以使其易于扩展和使用。
为未来做好准备意味着现在就采取行动。保持规则新鲜、教导团队识别棘手的骗局以及使用可抵御 FIDO2 等网络钓鱼的 MFA 是关键举措。现在,将资金投入到坚实的 MFA 中意味着,随着 LLM 使用的增长,其安全性也会随之提高,从而带来未来确定且安全的 AI 增长。
使用不止一种证明你是谁的证据可以确保人们至少通过两种方式检查他们的身份,从而使大型人工智能系统更难闯入。这些方式可能包括只有您知道的秘密单词、只有您拥有的特殊物品或您身体的一部分,例如指纹。这种混合检查建立了一道坚固的墙,将不应该进入的人拒之门外。
通过添加这道额外的墙,它可以保证重要信息的安全,使人工智能保持正常工作,并减少恶意攻击发生的可能性。对于使用需要处理大量数据的大型人工智能系统的团体来说,设置这种类型的防护是确保安全性严密和可信的重要一步。

