新的人工智能联盟旨在通过用户拥有的数据结束大科技公司的主导地位

Cheqd、DataHive、Nuklai 和 Datagram 已成立主权人工智能联盟,这是一个旨在开发基于用户拥有数据的去中心化人工智能的开源框架的新倡议。

该联盟于5月1日通过与crypto.news共享的新闻稿宣布,重点将是建立支持隐私保护AI系统的技术基础设施。该项目的核心是提议的意图网络协议,旨在使AI代理能够安全协作,而不妨碍用户对个人数据的控制。

INP由三个关键组成部分构成:"意图锚点"用于捕捉用户输入并提供数据所有权保障;"意图网",一个用于AI通信的去中心化环境;以及"执行节点",它根据用户意图进行操作并内置隐私保护。

该联盟还概述了更广泛的路线图,其中包括去中心化的数据存储、开源的人工智能模型以及供人工智能代理自主交易和协作的工具。根据创始人的说法,这一努力旨在将数据经济从“基于注意力”转变为“基于意图”,用户处于中心位置。

为什么这个联盟重要

随着对集中式人工智能模型使用个人数据的审查加剧,SAIA 进入了这一场景,同时欧洲及其他地区的监管者要求更多的透明度和用户控制。

cheqd的首席执行官Fraser Edwards在接受crypto.news采访时表示,目前的AI模型往往在没有有意义的同意下交易用户数据。他说:“用户用他们的个人数据支付,这些数据被提取、聚合和商品化。”

根据爱德华兹的说法,联盟的方法使用户能够选择性地共享数据,潜在地实现货币化,并保持撤销访问的能力,提供了一个集中平台难以提供的控制水平。

虽然之前“支付用户数据”的努力遭遇挫折,但SAIA的架构旨在将用户数据视为在基于同意的生态系统中可重复使用和可验证的资产。它还包括合规性工具,如审计追踪和选择性披露,以帮助应用程序满足全球隐私标准,如GDPR。

以下是与Fraser Edwards的完整问答,内容涉及SAIA的计划、挑战和用户激励。

crypto.news:主权人工智能联盟的愿景是构建开放源代码、去中心化的人工智能框架,使用者拥有数据。这在理论上听起来很有趣,但这将比大型科技公司的人工智能产品提供哪些优势呢?人工智能服务“免费”提供,实际上是通过交易他们的数据,这在大多数人中已经被接受为常态多年。为什么用户和开发者会转向自我主权模型?有什么真正的激励(金钱、隐私或其他)能使你用户拥有的数据方法足够有吸引力以推动采用呢? Fraser Edwards:Sovereign AI Alliance 模型的核心优势是一致性。适合您的 AI,而不是为您的注意力或数据货币化的平台。今天的“免费”AI 工具并不是真正免费的。用户使用他们的个人数据进行支付,这些数据被提取、aggreGate.iod 和商品化,通常以无法控制或审计的方式进行。这推动了参与驱动的系统,这些系统优先考虑病毒式传播和保留,而不是个人利益。 一个现实世界的例子是对Meta的人工智能嵌入WhatsApp的反对。尽管Meta声称尊重隐私,但用户无法关闭它,而且很少有人相信该公司会以他们的最佳利益行事。这削弱了人们对大型科技公司数据管理的信心。

相对而言,主权人工智能是围绕用户拥有的数据构建的,个人控制着他们的信息如何被使用、共享和货币化。自我主权模型使人们能够拥有他们的数字自我,而这正是大科技公司无法在不拆解其整个商业模型的情况下提供的。

为了让人工智能真正个性化和实用,它需要访问丰富的跨上下文数据并获得完全的权限。如果数据在各个平台之间孤立,人工智能将会受到限制且缺乏人情味。主权人工智能使智能系统更加强大,并更加尊重它们服务的对象。

该模型提供三种激励措施以推动采用:

  • 隐私设计:数据不会被吸入不透明的企业系统。相反,它通过去中心化身份和存储基础设施保持在用户的控制之中。
  • 货币激励:通过像 cheqd 的支付系统这样的框架,用户和开发者可以通过分享验证的数据或训练 AI 代理来获得报酬,创造一个真实的数据经济。
  • 真实个性化:像DataHive开发的个人AI和代理可以根据您的真实意图而非最大化广告收入的方式代表您行事。

CN: 这里的一个核心理念是个人控制(并可能将)自己的数据货币化。然而,许多过去的项目承诺“为你的数据付费”,但都遭遇了困难,部分原因是普通用户的数据在个体层面上的价值不高或不值得花时间。那么,SAIA将如何改变这种局面?你们是否计划直接奖励用户以便他们贡献数据或提供AI训练反馈,还是好处更多是间接的(例如更好的个性化和隐私)?如果用户无法获得可观的收入,他们主动分享和管理自己在这个网络中的数据的吸引力何在?

FE:过去的“为您的数据付费”模型确实经常失败,因为它们将数据视为一次性商品,而不是持续的、基于意图的生态系统的一部分。主权人工智能联盟通过重新构想数据为可重复使用的高价值资产,改变了这一方程式,在一个去中心化的基于意图的人工智能框架内。

对于 cheqd,我们通过使个人能够控制和重用自己的数据来实现这一目标,但同样重要的是,我们正在构建激励公司和数据孤岛将这些数据重新释放给个人的基础设施。

与其承诺为孤立的数据点提供快速的微型奖励,cheqd的基础设施支持一种模型,用户可以按照自己的条件选择性地共享经过验证的、可重复使用的数据,例如凭证、偏好或同意。这为更有意义的长期价值打开了可能性,无论是个性化的AI服务、选择性货币化,还是更好的控制。真正的转变在于权力的重新平衡:使用户能够携带他们的数据并在不同的AI系统中使用,而不会被困在孤岛中。

CN: 以用户拥有的数据为中心,您是如何从一开始就解决隐私和合规性的问题?如果个人数据被用于训练或指导AI模型,用户是否拥有细粒度的控制权以及选择退出或撤销数据的能力?最近的监管行动表明这一点至关重要 – 例如,意大利的数据保护机构因其大规模收集个人数据用于训练“缺乏任何法律依据”而暂时禁止ChatGPT。SAIA在处理用户数据时将如何不同,以确保其符合(GDPR等隐私法和其他)伦理规范? FE:合规性和隐私性是SAIA架构的基础。SAIA的基础是用户主权,默认情况下无需中央数据孤岛,这与典型的人工智能模型在没有有效同意的情况下批量收集数据形成对比。

  • 数据由用户控制用户可以随时通过去中心化身份(cheqd)和存储协议(Datagram等授予、撤销或限制对其数据的访问。该机制符合GDPR中关于数据最小化和被遗忘权的概念。
  • 同意是明确且可撤销的我们正在开发系统,使用户能够明确表示同意使用他们的数据,例如用于凭证共享、代理互动或人工智能训练。通过可验证的同意记录和特定意图的用例,法律基础和可追溯性得到了保证。
  • 内置合规工具我们正在创建嵌入式合规功能,如审计追踪、数据来源和选择性披露,以便使用SAIA框架的AI代理和应用不仅符合隐私要求,而且可以证明符合全球法规。

CN: cheqd为联盟带来了去中心化身份)自我主权身份/SSI(和验证基础设施。SSI将如何融入AI框架?例如,意图锚点是否会使用数字身份来验证数据来源或AI代理的声誉?考虑到去中心化身份仍处于初期阶段,即使是身份专家也指出,由于对用户和组织增加的复杂性,采用是最大挑战,您将如何鼓励和推动SSI在SAIA中的使用?

FE: “SSI在主权人工智能联盟的架构中扮演着关键角色。它是连接人工智能代理、人员和数据的信任层。以下是我们打算如何克服采用障碍,以及cheqd的去中心化身份基础设施如何适应这一框架。

这同样适用于人工智能代理自身:通过向代理发放可验证的凭证,我们可以建立信誉、能力和真实性。这对于代理与代理之间或代理与用户之间的互动中的信任至关重要。

采用确实是今天 SSI 最大的挑战。虽然 cheqd 位于基础设施层,但 DataHive 是直接面向客户的,从而为消费者提供了解决方案,他们可以将自己的数据带入其中。

查看原文
本页面内容仅供参考,非招揽或要约,也不提供投资、税务或法律咨询。详见声明了解更多风险披露。
  • 赞赏
  • 评论
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate.io APP
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)