LangChain发布《AI Agent代理现状报告》
1、代理采用趋势
在过去的一年里,许多代理框架都获得了极大的欢迎——无论是使用 ReAct 来结合 LLM 推理和表演,还是多代理编排器,或者是像LangGraph这样更易于控制的框架。
大约51% 的受访者目前在生产中使用代理。当我们按公司规模查看数据时,中型公司(100-2000 名员工)在将代理投入生产方面最为积极(占 63%)。
令人鼓舞的是,78% 的公司有积极的计划很快将代理投入生产。虽然很明显人们对 AI 代理的需求很强烈,但实际的生产部署对许多人来说仍然是一个障碍。
2、领先代理用例
人们使用代理来做什么?代理既处理日常任务,也为知识工作打开了新的可能性。
主要进行研究和总结(58%),其次是简化任务以提高个人工作效率或提供协助(53.5%)。这些都表明人们希望有人(或某物)为他们处理耗时的任务。用户不必筛选无尽的数据进行文献综述或研究分析,而是可以依靠人工智能代理从大量信息中提炼关键见解。同样,人工智能代理通过协助安排和组织等日常任务来提高个人工作效率,让用户可以专注于重要的事情。效率的提高不仅限于个人。客户服务(45.8%)是代理用例的另一个主要领域,帮助公司处理查询、排除故障并加快跨团队的客户响应时间。
3、代理跟踪和可观察性工具
在测试 LLM 申请时,人们更多地提到离线评估(39.8%)而不是在线评估(32.5%)。这可能说明了监控实时性能的难度。在填写的回复中,许多公司还请了人工专家手动检查或评估回复,以增加一层预防措施。
尽管人们对代理表现出兴奋之情,但大多数人在允许代理自由发挥到何种程度方面采取了更为保守的态度。很少有受访者允许他们的代理自由读写和删除。相反,大多数团队要么允许只读工具权限,要么要求人工批准更重要的操作,例如写入或删除。
在代理控制方面,不同规模的公司也会有不同的优先级。不出所料,大型企业(2000 多名员工)更加谨慎,严重依赖“只读”权限来避免不必要的风险。他们还倾向于将护栏与离线评估相结合,以便在客户看到任何响应之前,在预生产中捕捉回归。
与此同时,小公司和初创公司(员工人数少于 100 人)更注重跟踪,以了解其代理应用程序中发生的事情(而不是其他控制措施)。从我们的对话来看,小公司往往专注于运输,只需查看数据即可了解结果;而企业则全面实施了更多控制措施。
虽然非科技公司和科技公司受访者的代理采用率相似,但在那些在生产中使用代理控制的受访者中,科技公司更有可能使用多种控制方法。51 % 的科技公司受访者目前使用 2 种或更多种控制方法,而其他行业的受访者只有39% 。这表明科技公司在构建可靠代理方面可能走得更远,因为控制是高质量体验所必需的。
4、生产部署的障碍和挑战
保持法学硕士 (LLM) 申请的高质量(无论答复是否准确或是否符合正确的风格)并不容易。
代理使用 LLM 来控制工作流程的固有不可预测性带来了更多的错误空间,使得团队很难确保其代理始终提供准确、符合上下文的响应。
性能质量是受访者最关注的问题——其重要性是成本和安全等其他因素的两倍多。
尤其是对于小公司来说,性能质量远远超过其他考虑因素,45.8% 的受访者将其列为首要考虑因素,而成本(第二大考虑因素)仅占 22.4%。这一差距凸显了可靠、高质量的性能对于组织将代理从开发转移到生产的重要性。
虽然质量仍然是企业的首要考虑因素,但安全问题对这些必须遵守法规并更谨慎地处理客户数据的大公司来说也很普遍。
挑战并不止于质量。从书面回复来看,许多人对构建和测试代理的最佳实践感到不确定。特别是,两个主要障碍脱颖而出:知识和时间。
•知识:团队经常难以掌握使用代理所需的技术知识,包括针对特定用例实施它们。许多员工仍在学习诀窍,需要提高技能才能有效利用人工智能代理。
•时间:构建和部署所需的时间投入非常大,特别是在尝试确保代理可靠运行时——这可能需要调试、评估、微调等。
5、代理成功案例
在我们的调查中, Cursor是讨论最多的代理应用程序,紧随其后的是Perplexity和Replit等重量级应用程序。
Cursor是一款人工智能代码编辑器,可帮助开发人员通过智能自动完成和上下文帮助编写、调试和解析代码。Replit 还可以通过设置环境和配置来加速软件开发生命周期,并让您在几分钟内构建和部署功能齐全的应用程序。Perplexity 是一个人工智能答案引擎,可以使用网络搜索和链接源来回答复杂的查询。
这些应用程序正在突破代理功能的界限,表明人工智能代理不再是理论上的——它们正在解决当今生产环境中的实际问题。
6、人工智能代理新兴主题
从我们的书面回复中,我们看到组织在将 AI 代理引入其工作流程时面临着许多不断变化的期望和挑战。人们对 AI 代理的这些功能表示钦佩:
但对于构建代理的团队来说,也有一些挑战需要考虑。这包括:
•理解代理行为的障碍。几位工程师写信谈到了他们向公司其他利益相关者解释人工智能代理的能力和行为的困难。有时,一些额外的步骤可视化可以解释代理响应发生了什么。其他时候,LLM 仍然是一个黑匣子。可解释性的额外负担留给了工程团队。
尽管面临挑战,但以下领域仍然充满活力:
对开源 AI 代理的兴奋:人们对开源人工智能代理表现出明显的兴趣,许多人认为集体智慧可以加速代理的创新。
自动任务的期待:许多人都在等待人工智能代理的下一次飞跃,即由更大、更强大的模型驱动,以便代理能够以更高的效率和自主性处理更复杂的任务
DeepMind 设计了一个模仿人类两种系统思维的代理框架。
代理系统有望为开发应用程序和解决任务创造新范式。然而,人工智能代理解决的任务类型具有不同的复杂程度,需要不同的记忆和推理能力。
受到诺贝尔奖获得者丹尼尔·卡尼曼提出的双系统思维范式的启发,DeepMind 的研究人员开发了一种名为 Talker-Reasoner 的新代理框架。
该框架和相关研究的前提是,当前的代理框架主要设计用于解决系统 1 任务,这些任务依赖于模式识别和即时记忆访问。当涉及到系统 2 任务时,代理系统就会崩溃,因为系统 2 任务需要更有条理的推理和规划。
Talker-Reasoner 通过将代理分为两个模块来解决这个问题:Talker 和 Reasoner。
两个模块通过共享内存系统进行交互。推理器用其最新的信念和推理结果更新内存。谈话器检索这些信息以做出快速决策。
研究人员在一款睡眠辅导应用中测试了他们的框架,该应用通过自然语言与用户互动,并提供个性化的指导和支持以改善睡眠习惯。这款应用需要结合快速、富有同理心的对话和深思熟虑的、基于知识的推理。同样的模式可以应用于其他类型的应用,包括个性化教育助理和客户服务。
收起阅读 »2024 年人工智能现状报告(附原文下载)
如果说去年是基础模型的突破之年,那么今年则是整合之年。虽然今年的报告继续记录了基础模型能力的重大进步,但我们与基础模型的关系已经发生了变化。研究人员现在对如何加速他们的工作以及如何最好地减轻他们的劣势有了更好的理解。与此同时,公司现在正在投入真正的努力,从仅仅构建模型转向创造产品。
在去年的报告中,我们问到,生成式人工智能产品在最初的“惊喜”因素(和试用订阅)结束后是否能够留住用户。这个问题已经得到了明确的答案。OpenAI 现在已经赚取了数十亿美元的收入,而 ElevenLabs 和 Synthesia 等公司已成为财富 500 强公司的日常工具。
然而,采用率的提高也意味着挑战的增加。其中一些挑战来自政策层面。国际峰会、协议和议定书的蓬勃发展未能掩盖治理方面的重大分歧。大型科技公司与欧洲监管机构发生争执,而加州提出的人工智能监管则引发了社区的内战。欧盟人工智能法案现在可能已经通过成为法律,但欧洲大陆的买家后悔情绪正在日益高涨。
长期以来,人工智能的讨论主要集中在模型缩放定律及其后果上。今年,企业被迫面对非常现实的物理限制,因为它们对电力、水和土地的需求给计算基础设施带来了越来越大的压力。五年前理想主义地接受的乐观净零承诺现在似乎处于严重危险之中。与此同时,这种人工智能基础设施建设所需的资金远远超出了许多机构投资者的能力范围,迫使企业将目光投向海外,这会产生地缘政治影响。
在所有这些挑战中,一个无可争议的赢家出现了。英伟达已加入市值 3 万亿美元的俱乐部,成为股市领头羊,可以说是世界上最强大的公司。越来越多的挑战者、对其中国业务的限制以及老对手迟来的软件投资都未能给英伟达留下任何痕迹。
虽然 NVIDIA 是最极端的例子,但处于 AI 开发前沿的上市公司已经获得了数万亿美元的企业价值。更令人印象深刻的是,他们是在高利率和市场普遍停滞的时期做到这一点的。再加上采用率不断提高、基础设施建设规模庞大以及核电站只是为了满足与 AI 相关的需求而启动——感觉我们真的进入了一个新时代。
2024 年报告的主要内容包括:
随着 GPT-4 与其他模型之间的差距缩小,前沿实验室的表现开始趋同,专有模型失去优势。OpenAI o1 让该实验室重回榜首——但能持续多久?
随着公司探索将 LLM 与强化学习、进化算法和自我改进相结合以解锁未来的代理应用,规划和推理在 LLM 研究中占据优先地位。
基础模型展示了它们突破语言的能力,支持数学、生物学、基因组学、物理科学和神经科学的多模式研究。
美国制裁对中国实验室生产高性能模型的能力影响有限,因为库存、经批准的硬件、走私和云访问等因素让它们能够制造出高性能的 (V)LLM。与此同时,中国打造国内半导体产业的努力仍然举步维艰。
随着上市公司在人工智能领域迎来牛市,人工智能公司的企业价值已达到 9 万亿美元。尽管 GenAI 在美国取得了巨大成功,但对私营人工智能公司的投资也有所增加,但幅度却有所下降。
少数 AI 公司开始产生可观的收入, 包括基础模型构建者和从事视频和音频生成的初创公司。然而,随着企业争夺地盘,模型变得越来越便宜,关于长期可持续性的问题仍未得到解答。
伪收购成为人工智能公司的出路,因为一些公司很难找到可行的商业模式,因为停留在前沿的成本太高。
关于生存风险的讨论已经冷却下来,尤其是在 OpenAI 政变失败之后。然而,研究人员继续加深对潜在模型漏洞和滥用的了解,并提出了潜在的修复和保障措施。
本报告是团队努力的成果,我们感谢人工智能社区不断创造突破,为本报告提供动力。感谢我们的审阅者让我们保持诚实。
我们撰写这份报告的目的是汇编我们所看到的最有趣的事情,目的是引发关于人工智能现状的知情讨论。因此,我们很乐意听到您对这份报告的任何想法、您对我们预测的看法,或对明年版本的任何贡献建议。
原文报告下载:https://share.weiyun.com/JltWyOMA
收起阅读 »OpenAI 发布 Swarm:用于构建、编排和部署多智能体系统的实验性 AI 框架
在快速发展的人工智能世界中,开发人员面临的一个紧迫挑战是协调复杂的多智能体系统。这些系统涉及多个 AI 智能体协同工作,通常在协调、控制和可扩展性方面存在重大困难。当前的解决方案往往很繁重,需要大量资源分配,这使部署和测试变得复杂。
例如,一个模型可能能够回答任何类型的问题,但如果您希望它同时处理客户服务和技术支持,则需要将这些角色分解为专门的代理。这使系统能够有效地分配工作,确保每个任务都由最适合该工作的代理来处理。
OpenAI 推出了Swarm Framework,作为简化多智能体编排固有复杂性的解决方案。Swarm 是一个实验性框架,专注于使智能体协调、执行和测试既轻量又高度可控。目标是让开发人员能够以直接高效的方式管理多个 AI 智能体之间的交互。这个框架已经开发了几个月,OpenAI 现在很高兴将其公开分享,希望它能被 AI 社区接受,成为构建高级 AI 系统的实用工具。
">
Swarm 的优势在于它的两个基本抽象:agents和handoffs(交接)。Swarm 中的代理是可用于完成任务的特定指令和工具的组合。在其流程的任何阶段,代理都可以将对话或任务“交接”给另一个代理,从而使编排变得无缝和模块化。这种抽象不仅可以实现不同代理之间的复杂交互,还可以确保整体协调始终处于严格控制之下。通过利用这些元素,Swarm 能够保持协调和执行过程的轻量级,使其成为一个高度可测试的框架。此外,Swarm 建立在 ChatCompletions 之上,它提供了一个强大而多功能的基础,使开发人员能够创建和部署多代理系统而无需不必要的开销。
Swarm 框架之所以重要有几个原因。首先,它提供了一种简化的方式来管理代理通信并在代理之间动态转移职责。这在不同 AI 代理专门从事不同任务的场景中至关重要,需要一种有组织且高效的交接机制。Swarm 的轻量级方法意味着开发人员可以轻松地迭代、测试和改进多代理配置,而不会被复杂的基础设施要求所困扰。此外,Swarm 的高度可控性意味着它是希望确保 AI 代理编排可靠性和效率的研究人员和开发人员的理想选择。通过保持简单、可控和高效,Swarm 代表着向让更广泛的开发者社区更容易使用高级 AI 系统迈出了重要一步。
总之,OpenAI 的 Swarm 框架旨在通过专注于简单性和可控性来克服多智能体系统编排中的重大挑战。通过提供基于智能体交互和任务交接的轻量级基础设施,Swarm 不仅使多智能体编排成为可能,而且适用于广泛的用例。随着多智能体系统继续在 AI 研究和应用中发挥关键作用,像 Swarm 这样的工具将降低障碍、提高可访问性,并最终实现更强大、更通用的 AI 解决方案的开发。无论是出于研究、产品开发还是教育目的,Swarm 都提供了一个激动人心的机会,可以以高效、精简的方式探索协调的多智能体 AI 的可能性。
安装
pip install git+ssh://git@github.com/openai/swarm.git
或者
pip install git+https://github.com/openai/swarm.git
用法
from swarm import Swarm, Agent
client = Swarm()
def transfer_to_agent_b():
return agent_b
agent_a = Agent(
name="Agent A",
instructions="You are a helpful agent.",
functions=[transfer_to_agent_b],
)
agent_b = Agent(
name="Agent B",
instructions="Only speak in Haikus.",
)
response = client.run(
agent=agent_a,
messages=[{"role": "user", "content": "I want to talk to agent B."}],
)
print(response.messages[-1]["content"])
在这个场景中,代理 A开始对话,但意识到用户需要它无法提供的东西。它将对话转交给代理 B,后者用俳句回复。这个简单的交接演示了 Swarm 中的代理如何协作解决用户问题。
Hope glimmers brightly,
New paths converge gracefully,
What can I assist?
Swarm只是探索多智能体系统的众多工具之一。Microsoft AutoGen和crewAI是另外两个重要框架:
AutoGen专注于复杂的工作流程,并通过跨代理的内存和状态管理提供更为强大的解决方案。
crewAI旨在简化业务流程,通过模块化代理自动执行任务。
OpenAI DevDay利好AI开发者的五大创新!
OpenAI 今天在旧金山举行的开发者日活动上宣布了其 API 服务的一系列更新。这些更新将使开发人员能够进一步定制模型、开发新的基于语音的应用程序、降低重复提示的价格,并从较小的模型中获得更好的性能,更好的使用新广场功能。
OpenAI 在活动期间宣布了5个主要的更新:模型提炼、提示词缓存、视觉微调, RealTime 的新 API 服务,以及新广场玩法。对于初学者来说,API可以使软件开发人员能够将外部应用程序的功能集成到自己的产品中。
模型提炼
该公司推出了一种新方法,通过使用较大模型的输出对 GPT-4o mini 等较小模型进行微调,从而增强其功能,这种方法称为模型蒸馏。该公司在一篇博客文章中表示,“到目前为止,蒸馏是一个多步骤、容易出错的过程,需要开发人员手动协调不连贯的工具之间的多个操作,从生成数据集到微调模型和衡量性能改进。”
图片
为了提高流程效率,OpenAI 在其 API 平台中构建了一个模型蒸馏套件。该平台使开发人员能够使用 GPT-4o 和 o1-preview 等高级模型来构建自己的数据集,以生成高质量的响应,微调较小的模型以跟踪这些响应,然后创建和运行自定义评估以衡量模型在特定任务中的表现。
OpenAI 表示,为了帮助开发人员开始进行蒸馏,它将在 10 月 31 日之前每天在 GPT-4o mini 上提供 200 万个免费训练Tokens,在 GPT-4o 上提供 100 万个免费训练Tokens。(Tokens是 AI 模型为理解请求而处理的数据块。)训练和运行蒸馏模型的成本与 OpenAI 的标准微调价格相同。
提示词缓存
OpenAI 一直致力于降低其 API 服务的价格,并通过“提示缓存”朝着这个方向迈出了新的一步,这项新功能使开发人员能够重复使用常见的提示,而无需每次都支付全价。
图片
许多使用 OpenAI 模型的应用程序在提示前添加了较长的前缀,详细说明模型在完成特定任务时应如何操作,例如指示模型以愉快的语气响应所有请求,或始终以项目格式响应。较长的前缀通常可以改进模型并有助于保持响应的一致性,但也会增加每次 API 调用的成本。
现在,OpenAI 表示 API 将自动保存或“缓存”长前缀长达一小时。如果 API 检测到具有相同前缀的新提示,它将自动对输入成本应用 50% 的折扣。对于具有非常集中用例的 AI 应用程序开发人员来说,新功能可以节省大量资金。OpenAI 的竞争对手 Anthropic于 8 月在其自己的模型系列中引入了提示缓存。
视觉微调
现在,开发人员除了可以使用文本之外,还可以使用图像对 GPT-4o 进行微调,OpenAI 表示,这将增强模型理解和识别图像的能力,从而实现“增强的视觉搜索功能、改进的自动驾驶汽车或智能城市的物体检测,以及更准确的医学图像分析等应用”。
图片
通过将带标签的图像数据集上传到 OpenAI 平台,开发人员可以提高模型在理解图像方面的性能。OpenAI 表示,Coframe 是一家正在构建人工智能驱动的增长工程助手的初创公司,它已经使用视觉微调来提高助手为网站生成代码的能力。通过为 GPT-4 提供数百张网站图像和用于创建这些图像的代码,与基础 GPT-4o 相比,他们将模型生成具有一致视觉风格和正确布局的网站的能力提高了 26%。
为了让开发人员入门,OpenAI 将在 10 月份每天免费发放 100 万个训练Tokens。从 11 月开始,使用图像对 GPT-4o 进行微调将花费每 100 万个Tokens 25 美元。
即时的API
上周,OpenAI 向所有 ChatGPT 用户推出了其高级语音模式,该模式听起来像人类的声音。现在,该公司正在帮助开发人员利用其技术构建语音转语音应用程序。
如果开发人员之前想要创建一个可以与用户对话的 AI 应用程序,他们首先需要转录音频,将文本传递给 GPT-4 等语言模型进行处理,然后将输出发送到文本转语音模型。OpenAI 表示,这种方法“通常会导致情感、强调和口音的丧失,以及明显的延迟。”
借助 Realtime API,音频可立即由 API 处理,无需将多个应用程序链接在一起,从而使其速度更快、更便宜、响应速度更快。该 API 还支持函数调用,这意味着由其支持的应用程序将能够执行操作,例如订购披萨或预约。Realtime 最终将更新以处理包括视频在内的各种多模式体验。
处理文本时,API 的费用为每百万输入令牌 5 美元,每百万输出令牌 20 美元。处理音频时,API 的费用为每百万输入令牌 100 美元,每百万输出令牌 200 美元。OpenAI 表示,这相当于“每分钟音频输入约 0.06 美元,每分钟音频输出约 0.24 美元”。
新广场功能
新广场的功能主要包括生成提示词,Functions和Schemas,对提示词的结构框架以及其他用法作出了更多说明。
图片
在一天前就有这部分的内容疑似泄漏,「系统提示词」也被人扒了出来。
主要包括:“了解任务:掌握主要目标、目标、要求、约束和预期输出。”
最小更改:如果提供了现有提示,请仅在简单时对其进行改进。对于复杂的提示,在不改变原始结构的情况下提高清晰度并添加缺失的元素。
结论前推理:鼓励在得出任何结论之前进行推理步骤。注意力!如果用户提供了随后发生推理的示例,则 REVERSE 顺序!永远不要以结论开始例子!
推理顺序:调出提示和结论部分的推理部分(按名称划分的特定字段)。对于每个,确定执行此操作的 ORDER 以及是否需要反转。
结论、分类或结果:应始终出现在最后。
总结:OpenAI 的 DevDay 2024 标志着公司将转向更加专注、以开发者为中心的创新。虽然此次活动没有前几年那么热闹,但推出的功能表明 OpenAI 致力于提高开发者对 AI 的可访问性和效率。
参考链接:
1.https://www.inc.com/ben-sherry/openai-just-announced-4-new-ai-features-and-theyre-available-now/90982838
AI Agent代理经济时代:人工智能正在重塑各行各业
公有云释放SaaS 经济
iPhone 引领应用经济
社交媒体推动创作者经济
最近的人工智能创新标志着类似的结构性转变,我们现在正进入AI Agent代理经济时代。虽然我们过去曾写过关于预测代理的炒作、部署代理所需的基础设施以及即将到来的代理网络将如何彻底改变人们的浏览方式的文章,但现在我们转向代理经济中最令人兴奋的部分——代理人工智能应用程序本身。
我们很高兴投资人工智能代理,原因如下:
AI 代理重塑 SaaS- 现有的 SaaS 通常将点击式 UX、孤立的数据护城河和基于座位的模型配对。AI 代理与所有这些 DNA 背道而驰。
人工智能代理会消耗劳动力——劳动力预算是软件预算的 35 倍。人工智能代理可以利用这两方面的预算。
人工智能代理将服务转化为软件——受低利润人力服务困扰的市场可以通过人工智能代理提高效率。
出于这些原因,我们预计大多数人工智能和副驾驶将很快进入自动驾驶仪或代理的世界。我们看到了这种情况的发生,并为终端市场的人工智能代理带来了巨大的机遇:
横向(跨行业 AI)——即法律 AI 横向销售给企业内部团队(常态)
垂直行业(特定行业的人工智能)——例如,专门向律师事务所出售的法律人工智能(DeepJudge)
消费者(AI 作为面向公众的全栈服务)——即以面向消费者的服务形式出售的法律 AI ( DoNotPay)
以下是代理经济的 SaaS 和劳动力再造机会:
该图描绘了一张名为“代理经济”的图表,该图表按领域(水平、垂直、消费者)对各种工作角色进行分类,并提供了每个角色在美国员工数量的信息,以及适用于该角色的领先公司和 AI 驱动解决方案的示例。
早期赢家的例子
为了推动这一代平台转型,科技巨头预计未来几年将投入超过 1 万亿美元的资本支出。这一价格表明(并要求)一个即将出现的应用生态系统。目前已经出现了一些赢家的早期迹象,但对投资者和创始人来说,还有很长的路要走:
客户服务:像Sierra这样的公司正在采取新方法,这将给 Zendesk 带来困难
销售:11x等公司正在通过更好的潜在客户生成功能增强 SDR
营销:像Jasper这样的公司在文案用例方面取得了长足进步,现在必须扩展到更广泛的营销 AI 平台
招聘:Mercor等公司正在寻找将人工智能应用于人才评估的独特方法
医疗保健:像Abridge这样的医疗文书工作者在高度监管的行业中表现良好
法律:Harvey正在席卷法律行业,并改变我们对计费时间的看法
联系中心:Crescendo作为 AI 优先的外包联系中心的做法正在取得成效
通用:像Brevian这样的公司正在为企业提供配置安全代理的工具,以完成各种各样的任务
我们刚刚进入代理经济。这些类别(以及其他类别)中将出现更多赢家,而人工智能代理将开始影响每个行业和几乎所有角色。
当 SaaS 经济起飞时,我们享受了十多年的新应用赢家。iPhone 发布后,Uber、Snapchat 和 Rovio 等移动优先的独角兽花了三年多的时间才出现。创作者经济直到 Facebook 收购 Instagram 八年后才进入公众视野。独角兽 AI 应用的确切时间很难预测,但从早期的牵引力迹象、强大的基础投资和创新周期的速度来看,我们知道杀手级应用如今已经在构建中。
2024年 甲子光年 AI agent中国AI Agent 行业研究报告
随着大型模型在各行各业的广泛应用,基于大型模型的人工智能体(AI Agent)迎来了快速发展的阶段。研究AI Agent是人类不断接近人工通用智能(AGI)的探索之一。知名AI Agent项目AutoGPT已经在GitHub的星星数已经达到 140,000 颗,进一步反映了用户对于AI Agents 项目的广泛兴趣和支持。
随着AI Agent变得越来越易用和高效,"Agent+"的产品越来越多,未来AI Agent有望成为AI应用层的基本架构,涵盖toC和toB产品等不同领域。
因此甲子光年推出《2024年AI Agent行业报告》,探讨AI Agent在概念变化,学术及商业界的尝试与探索,对各行业、各场景对于AIGC技术的需求进行调研及梳理,展示AI Agent领域近期的突破及商业实践范式,对未来行业的趋势进行研判。
2024年 甲子光年 AI agent中国AI Agent 行业研究报告.pdf
谷歌大佬神秘AI预测,视频被全网删除
人工智能能在几分钟内帮你打造出一款击败TikTok的竞争对手?谷歌前首席执行官埃里克·施密特(Eric Schmidt)表示,也许在未来几年内就能实现。几天前,埃里克·布林约尔松邀请谷歌前CEO施密特在埃里克的斯坦福经济学课上进行了深入讨论。其中有不少颇具争议的内容,大家可以在文末B站上进行观看。
纵观整个AI行业,他无意间分享的对AI的预测和见解值得关注,以下是突出的内容。
AI见解
人工智能的快速演变:埃里克·施密特强调了人工智能发展的迅速步伐,指出进步如此之快,以至于需要频繁更新预测。
·关键人工智能趋势:施密特确定了人工智能在不久的将来的三个主要趋势:。
1、大型上下文窗口(Large Context Windows):人工智能系统将很快处理更大的上下文窗口,使它们能够处理和记住大量信息,类似于人类的短期记忆。
2、人工智能代理(AIAgent):这些系统可以自主执行任务,例如学习化学原理并进行测试,这可以大大加快科学研究
3、从文本到行动(Text-To-Action):人工智能将能够将文本命令转换为行动,这可能会彻底改变任务的自动化和执行方式
经济和地缘政治影响:施密特讨论了人工智能发展所需的大规模金融投资,认为只有少数拥有大量资源和人才的国家才能在人工智能领域领先,并强调美国和中国是主要竞争对手
国家安全:阿尔在国家安全方面发挥着重要作用,美国需要保持其对中国的主导地位。施密特提到了与加拿大等国家建立伙伴关系对水电资源的战略重要性。
战争中的AI:施密特谈论了在战争中使用人工智能和无人机,旨在使传统的地面战斗过时,使入侵变得极其昂贵。
工作伦理与创新:他对创业公司和大公司的工作伦理进行了对比,认为紧张的工作环境对快速创新至关重要。
人工智能和错误信息:施密特对人工智能传播错误信息的可能性,特别是在选举期间,以及在监管社交媒体平台方面的挑战表示关注。
未来的工作:人工智能将对劳动力市场产生重大影响,高技能工作可能会适应和整合人工智能,而低技能工作可能会面临更大的自动化风险。
假设
图片
AI发展速度:施密特认为,人工智能将继续以指数级速度发展,未来一两年将取得重大进展。
经济集中:他认为,人工智能的经济效益将集中在少数几家大公司和有能力在人工智能基础设施方面进行大量投资的国家。
工作伦理:施密特认为,强大的工作伦理和紧张的工作环境对于人工智能开发中的创新和成功是必要的。
地缘政治稳定:他认为,在人工智能发展的背景下,美国和加拿大等地缘政治联盟将保持稳定和合作。
不一致性
图片
工作与生活平衡:施密特批评谷歌对工作与生活平衡的关注是失去竞争优势的原因,但他承认在其他情况下可持续工作实践的重要性。
AI监管:虽然施密特倡导强大的AI开发和投资,但他也强调了防止滥用的监管需要,鉴于对快速、不受限制的创新的推动,这可以被视为矛盾的。
名言集锦
“明年,你将看到非常大的上下文窗口、代理和文本到行动。当它们以规模交付时,将对世界产生影响,这种影响是任何人都没有预料到的。”
“我认为地球上的每个人都有自己的程序员,他们会做他们想做的事。”
“在我看来,前沿的大语言模型(现在只有3款)与其他所有车型之间的差距越来越大。”
“作为一个国家,我们没有足够的权力去做这件事,另一种选择是让阿拉伯人出资。”
"对民主的最大威胁是错误信息,因为我们会非常擅长这个。”
"进攻总是有优势的,因为你总能压倒防守系统。"
“我们团队每周的共识是,你最终会用所谓的对抗性 AI来做这件事,实际上会有一些公司,你会雇用他们,付钱给他们,来破解你的 AI 系统。”
文章链接:谷歌大佬神秘AI预测,视频被全网删除
参考资料:
1、Google CEO Eric Schmidt 施密特 演讲原视频带机翻字幕https://www.bilibili.com/video/BV1TepReUEhY/?spm_id_from=333.337.search-card.all.click&vd_source=585241f468d3a2d3b9c375b74cbb65f8 收起阅读 »