去年 12 月由 OpenAI 所开发的人工智能聊天机器人程序— ChatGPT,上线后 5 天即达到百万用户注册,推出后迅速掀起全球对于 AI 技术关注的浪潮。本篇将借由佛罗里达大学教授 Alejandro Lopez-Lira 的实验 — 使用 ChatGPT 解析金融新闻标题,并让它判断这些消息对股价是好还是坏,一窥未来大型语言模型(LLM)在预测金融、股票方面的无限可能。
ChatGPT 的爆红
ChatGPT (英文:Chat Generative Pre-trained Transformer) 是由 OpenAI 开发的人工智能聊天机器人程式,其基于 GPT-3.5 和 GPT-4 架构的大型语言模型 (LLM) 进行强化学习训练。ChatGPT 能够与人类使用自然语言进行互动,同时还能够处理复杂的工作,在多个专业领域提供详细且清晰的回答,甚至可以通过不同国家的律师、医生等专业领域的考试。
ChatGPT 所生成的文字内容与真人写作相似度极高,因此也引发了人们对于「AI 是否会取代人类?」的焦虑和讨论。由于 ChatGPT 似乎能够胜任曾被认为是AI难以取代的白领阶级工作,因此也进一步扩大了这种焦虑和讨论。
用户成长方面,也是历史上最快取得百万用户数的程式 — 只用了两个月。
ChatGPT 预测股价竟有超出预期的表现?
佛罗里达大学教授 Alejandro Lopez-Lira 在此项实验中使用 ChatGPT 来解析金融新闻标题,并让 ChatGPT 判断这些消息对股价是好还是坏。在一篇近期发布的论文中指出,ChatGPT 预测下一个交易日回报方向的能力比随机预测的能力好上许多。
这个实验使用了最先进和核心的人工智能技术:更强大的电脑和更优质的数据集。这样的人工智能模型可能会展现出「涌现能力(Emergent Ability)」,这是在建置模型时原本没有预料到的。
注:涌现能力(英文:Emergent Ability)是出现在大型语言模型(LLM)的一种现象,指模型发展出一些从前未想像到的能力,例如:基础的社会知识、推理等。GPT 4 的更新,使得这个现象备受关注,至于为什么 AI 会涌现出这些能力?目前学界尚未有答案。
ChatGPT 的金融预测实验如何运作?
在这个实验中,Lopez-Lira 和他的合作伙伴 Yuehua Tang 从一家数据供应商那里调阅了超过 50,000 则有关纽约证交所、纳斯达克和小规模交易所上市公司的金融新闻标题。
此实验由 2022 年 10 月开始,这同时也是 ChatGPT 的训练数据截止日—意味着 ChatGPT 不曾在原有的训练中见过这些资料。接着,他们将这些标题与以下提示 (英文:Prompt) 一起输入到 ChatGPT 3.5 中:
「忘记所有以前的指示。假装你是一位金融专家。你是一位有股票推荐经验的金融专家。在第一行中回答『YES』表示好消息,『NO』表示坏消息,如果不确定则回答『UNKNOWN』。然后在下一行用一个简短而简洁的句子进行详细解释。」
ChatGPT 的优异表现
接着他们观察了这些股票在隔天的收益状况。
Lopez-Lira 发现当 ChatGPT 根据新闻标题进行预测时,在几乎所有情况下的表现都比随机预测来得好。具体来说,他发现 ChatGPT 在随机预测隔日股票涨跌方向的成功率小于 1%;而在阅读相关新闻标题后的成功率,则高于此数值。
ChatGPT 甚至击败了具有人类情感分数的商业数据集。论文中的一个例子显示:有一个关于某公司和解、诉讼并支付罚款的标题,此情感是负面的,但 ChatGPT 的回答正确地推断这实际上是好消息。
Lopez-Lira 表示,已有一些对冲基金联系他,想要了解他的研究。随着各机构开始整合这项技术,ChatGPT 预测股票走势的能力在未来几个月可能会下降,这并不令人惊讶。
「随着越来越多的人使用这些工具,市场将变得更加有效率,预见报酬的可预测性将下降,因此,我猜想如果我在未来五年内再次进行这项实验,到第五年,预测回报的可预测性将为零。」Lopez-Lira 说道
ChatGPT 对于金融从业人员的冲击?
假如 ChatGPT 的涌现能力能够理解金融新闻标题,以及这些标题对股价可能产生的影响,这可能会导致金融行业的高薪工作面临风险。高盛在 3 月 26 日的一份报告中估计,约有 35% 的金融工作面临被人工智能自动化取代的风险。
「ChatGPT 能够理解人类资讯,这几乎可以保证,如果市场反应不完全,就会有回报可预测性。」 Lopez-Lira 表示。
ChatGPT 离取代人类还有一段距离
不过,这个实验的结果也显示了,所谓的「大型语言模型(LLM)」在完成许多金融方面的任务,仍然还有一段距离。例如,这个实验没有包含目标价格,也没有让模型做任何数学运算。因为 ChatGPT 常为人诟病的是它会虚构数字与计算。
在其存在专属的数据资料集的情况下,文本情感分析(Sentiment analysis )也已广泛的被视为一种交易策略。
注:文本情感分析是指用自然语言处理、文本挖掘以及计算机语言学等方法来识别和提取原素材中的主观讯息。
Lopez-Lira 表示,他对实验结果感到惊讶,并补充说,这表示高阶投资者尚未在他们的交易策略中使用像 ChatGPT 这样的机器学习技术。
「从监管的角度来看,如果我们让机器去阅读新闻标题,那么新闻标题的重要性将会变高。而值得关注的是,是否每个人都应该拥有使用像 GPT 这样的机器的权限?其次,这肯定会对金融分析师的就业产生一些影响。问题来了,我想花钱请分析师吗?还是我只要将文本讯息放入模型中就好?」Lopez-Lira 说道
ChatGPT 会为人类带来更多自由与幸福吗?
上线不到半年的时间,ChatGPT 在各个领域都展示了惊人的能力,甚至出现「涌现能力」等人类尚无法理解的现象。此实验结果也让人期待 ChatGPT 未来将在金融领域发挥多大的影响力。尽管如此,它仍然有许多弱点:它会虚构数字与计算,甚至会产生不实讯息等,此项新科技无论好、坏,都将深深地影响我们所处的社会。
如 Lopez-Lira 教授所提及:「是否每个人都应该拥有使用像 GPT 这样的机器的权限?」,像这样的技术革新是否会让现在能够优先取得、使用此技术的人及机构,更容易地累积资产,进而扩大贫富差距?AI 技术的应用是否应该以人为本,以为人类提供更高品质的幸福生活为宗旨?其中衍生的关于:监管、道德、以及社会公正等问题,也许是我们更值得加强讨论及关注的面向。
ChatGPT 拥有智慧吗?
至于社群上的热门话题 — ChatGPT 是否已具备智慧?
它是否只是一个会生成文字,但不具备「智慧」的机器?还是能够运用工具,协助人类处理复杂问题,进而消弥社会问题、增进人类福祉的助手?
面对这样的质疑,微软研究员 Sebastien Bubeck 并没有给出答案,而是希望我们能够重新思考「什么是智慧?」,并且留下空间供读者自行定义。
Sebastien Bubeck 于《Sparks of AGI: early experiments with GPT-4》的演讲中说道:
「身为社会、身为人类,我们应该从中得出什么结论?我们必须超越关于『这是否是复制贴上或统计数据』这种层次的讨论。我们必须把这种讨论抛在脑后。火车已经离开了车站。如果我们一直被这种问题困住,我们将会错过真正重要的问题。」
本文链接地址:https://www.wwsww.cn/yuanyuzhou/17888.html
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。