量子 计算机最终可能有助于处理用于训练人工智能的一些庞大数据集,记者《新科学家》的一份报告称。
根据加州理工学院、谷歌量子人工智能、量子计算初创公司Oratomic和麻省理工学院的一项早期 研究,研究人员表示,面临的一个挑战是将大型数据集——通常以TB或PB为单位——输入量子计算机。要利用量子效应,数据必须转换为量子状态,而准备这些状态传统上需要大量的量子存储。
“机器学习在科学和技术以及日常生活中确实无处不在。在一个我们可以构建这种[量子计算]架构的世界中,我觉得它可以在有庞大数据集可用时应用,”Oratomic首席技术官黄信元在一份声明中表示。
研究提出,与其要求完全的数据集首先加载到量子存储中,该新方法在处理过程中准备所需的量子状态,从而减少内存负担。研究人员表示,这可能允许像叠加这样的量子效应在没有极大存储系统的情况下使用。
研究人员表示,该方法还可能允许量子计算机在处理大型数据集时使用的内存少于传统系统,这表明一台约300个逻辑量子位——错误修正的量子比特,能够可靠地进行计算——的机器可能在某些任务上超越经典计算机。
这样的系统尚不存在;然而,研究人员估计,大约60个逻辑量子位的量子计算机可能开始在某些用于人工智能的数据处理任务上超越经典系统,突显了量子计算的进步可能如何 威胁密码学和区块链等领域。
“人们习惯于认为量子计算机总是离我们还有10年,”Oratomic的联合创始人兼首席执行官多勒夫·布鲁夫斯坦 之前告诉Decrypt。“但当你回头看看十多年前我们所处的地方,关于肖尔算法需要的最佳估计是10亿个量子比特,而那时我们实验室中的最佳系统大约只有5个量子比特。”
尽管如此,研究人员表示,人工智能与量子计算之间的联系正在变得越来越 紧密,因为人工智能工具帮助科学家分析和建模复杂的量子系统,而这些系统通常难以进行模拟,加速了量子硬件和应用的发展。
“量子机器是一种非常强大的设备,但您确实需要先为其提供输入,”瑞士苏黎世联邦理工大学计算物理学教授阿德里安·佩雷斯-萨利纳斯在一份声明中表示。“这项研究讨论了如何为其提供输入,以及逐位加载[数据]就足够,避免给‘野兽’喂得过多。”
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。