当前位置: 首页 > 行情 >

前沿观点|AI会交易吗?(升级版)_焦点讯息

发布时间:2023-06-05 11:49:14 来源:哔哩哔哩

引  言

Preface

借助人工智能技术的快速发展,人工智能交易已在金融行业流行起来。其通过复杂的机器学习算法帮助做出交易决策。直观上看,人工智能交易的一大优势是受“情绪”的影响较小,因此可以做出比人类更加理性的决策。


(资料图片)

许多类型的交易都涉及投机(speculations)。“根据国际清算银行(BIS)的一项调查,投机交易的外汇比例约为 87%。”[1]根据维基百科,“投机是购买资产(商品、货物或房地产),希望它能很快变得更有价值。它也可以指投机者希望价值下降的卖空。”换言之,投机指的是交易具有共同价值的商品,而交易者基于信息不对称而做出不同的价值估计,即“投机意味着纯粹基于信息差异而采取的行动。”[2]。

在文章 AI 会交易吗?里,我们探讨了一个惊人的定理,不交易定理[3],即使拥有不同的私有信息,理性的个体仍然不会交易像股票这样的共价值商品,因此不会投机。然而,现实中我们依然可以观察到大量的投机,并往往把它归结于人的不理性。如果可以借助机器和算法拥有更高的理性,那么交易还会产生吗?更明确的说,如果未来市场只涉及“理性”的人工智能交易者,他们会交易共同价值的资产吗?投机会消失吗?市场是否有可能停滞进而导致价格发现功能失调?本文延展了上篇文章,希望对该话题进行更细致的讨论。

具体来说,不交易定理成立需要两个关键假设:

A 个体都需要拥有相同的先验,即共先验假设;

B 个体的理性是共识。

本文将先着重探讨假设 A,并讨论如下话题:

Q1:什么是先验,对机器来说先验到底是什么?另一个相关问题:对于目前的大语言模型,什么是它的先验?如果先验可以让个体理解他人,那么大语言模型是否可以“理解”他人?

Q2:共先验假设意味着什么,到底是公理还是定理,在机器的世界里,我们该如何理解这个假设?

虽然会对提到的共识、共先验、不交易进行更为严谨的描述,但是作者将尽量做到古早符号- -,数学- -, 先验要求- -,图片+ +,直觉+ +,例子+ +,柯南·道尔+ +。

太长不看?由于本文大部分是相关概念的教程,推荐时间有限只想知道观点的读者直接到最后看回答,还有时间的读者可以顺便阅读作者写的两段 OOC 的福尔摩斯同人文。

01

设定:福尔摩斯 vs. 莫里亚蒂

夏洛克·福尔摩斯(Sherlock Holmes,以下简称 SH)是一名住在英国伦敦贝克街221号 B 的侦探。詹姆斯·莫里亚蒂教授(Professor James Moriarty,以下简称 Prof)曾任数学系教授,并同时兼任世界犯罪组织首脑。作者有幸组织过他们二人玩过一个(无聊)游戏:

世界有四种状态:黄色(Y)、蓝色(B)、绿色(G)、粉色(P)。SH 和 Prof 都只能观察到部分信息。以 SH 为例,他可能收到三种私有信息:世界是黄色或者蓝色的、世界是绿色的、世界是粉色的。当世界是黄色的时候,作者给 SH 和 Prof 发送了如上私有信息。

/ 专有名词小贴士 /

考虑到某些读者还是更愿意读一些古早论文,这里介绍一些专有名词。其它读者可跳过不读。

SH 的私有信息也被称为他的类型(type),以上设定中他有三种类型。SH 收到的信息和世界状态的关系为一个分割(partition)。世界状态可以有个先验的概率分布。例如以上设定中可以假设无信息时,世界状态为等概率分布。那么世界状态的集合、先验分布、SH 和 Prof 的分割共同描述了一个信息结构(information structure)。另一种描述方式为我们更熟悉的联合分布,即信息结构为 SH 类型(私有信息),Prof 类型,其它相关信息的联合分布。

02

共识:迭代 vs. 不动点

对共识不感兴趣的读者可以跳过本节直接去共先验。

有关共识[2,4],大家比较熟悉“每个人知道每个人知道每个人知道.....”的迭代风格定义。稍微串个戏,《老友记》中第五季第十四集“The One Where Everybody Finds Out”非常传神地描述了一个八卦成为共识的迭代过程,推荐学习过老友记的读者前去重温。言归正传,接下来介绍不动点风格的定义,并让 SH 和 Prof 二人为大家演示。

事件/陈述:世界状态的集合。

例:E = {Y,B} 即世界是黄色或蓝色的。

当 SH 知道 E,Prof 也知道 E 的时候,可以推断得出世界是黄色的。因为如果世界是蓝色的,Prof 由于不确定世界是不是绿色的,是无法知道 E 的。因此:

当 E= {Y,B} , everyone knows E = {Y}

然而不管世界是什么状态,{Y} 都不是一件每个人都知道(everyone knows)的事件,因此不管世界是什么状态,E 都不是 SH 和 Prof 的共识。

广义上,everyone knows 定义了一个从世界状态集合到世界状态集合的映射:E => everyone knows E,在这个映射下不动的事件为公共事件。

公共事件(不动点):如果 everyone knows E = E,那么称 E 为公共事件(public event)。

例:E={Y,B,G,P} 为一个平凡的公共事件,以下为不平凡的公共事件。

公共事件在这样的分割结构下有一个更简明的定义:

我们将世界状态作尽量细致的分块,使得不同分块没有状态被冖连起来。在世界状态 w 下,包含 w 的分块为公共事件。例如当世界是黄色的时,{Y,B,G} 是公共事件。当世界是粉色的时,{P} 是公共事件。

/ 专有名词小贴士 /

以上定义称为两个分割(partition)的 meet,即最精细的共同粗化(finest common coarsening),与此对应的为 join,即最粗糙的共同细化。这与最小公倍数/最大公约数的定义类似。

公共事件 E 发生的时候一定是共识。因为 everyone knows E = everyone knows (everyone knows E) = everyone knows everyone knows E=……。由于任何包含公共事件的事件也会发生,因为其可以写成公共事件发生或 XX 发生的形式,那么当公共事件发生时,任何包含它的事件都是共识。

以下将是 Aumann 的 agreement 定理。

定理[4]对任意事件 A,如果 SH 和 Prof 对 A 发生概率的预测为共识,那么这个后验概率一定相等。

虽然这个证明较为简明,但是为了数学- - ,例子+ +,作者只在这里展示两个例子。

假设没有信息时,世界状态等概率分布。

例:A = {Y} 在作者发完信息后,SH 认为 A 发生的概率是1/2,而 Prof 认为 A 发生的概率是1。但是注意到事件 E=(SH 认为 A 发生的概率是1/2 & Prof 认为 A 发生的概率是1)= {Y} 并非共识。

例:A = {P} 在作者发完信息后,SH 认为 A 发生的概率是0,而 Prof 认为 A 发生的概率是0。且事件 E=(SH认为 A 发生的概率是 0 & Prof 认为 A 发生的概率是0)= {Y,B,G} 为共识。

事实上,不管是什么事件,如果 (SH 认为 A 发生的概率是 p & Prof 认为 A 发生的概率是 q)= {Y,B,G}——即不管世界是黄色的还是蓝色的还是绿色的,SH 都认为 A 发生的概率是 p & Prof 都认为 A 发生的概率是 q——那么一定有 p=q,感兴趣的读者可以想想为什么。

03

共先验:公理 vs. 定理

先验指没有任何信息时,SH 和 Prof 认为的世界状态分布。共先验指二人先验相同,如二人都觉得没有任何信息时世界状态等概率分布。由于世界的状态将决定所有信息,先验也可以理解成对于所有信息的联合分布,因而可以指导人如何预测别人,预测别人如何预测自己,等等等等。

文献上关于共先验的争论一直在持续,趁夏洛克和莫里亚蒂教授在这里,我们看看他们是怎么说的。

注:作者由于只在小学初中时期读过柯南·道尔,以下“编造”内容难免 OOC,针对某些言语风格的模拟作者借助了 ChatGPT 的帮助。

“但是,我并不是说共先验是一种绝对的真理。理论上,先验是一种非常有用的工具,它可以帮助我推断你的想法,并推断你如何推断我的想法……共先验假设表明像我这样理性的人所做出的推断与现实相符——比如说你刚才应该才从‘黑马酒馆’走出来,这有助于我预测其他人,当然,尤其是犯罪分子的行为。”夏洛克说道。

莫里亚蒂皱起了眉头:“理论?夏洛克,你总是生活在自己的理论中,离现实太远了。在真实世界中,人们的知识和信仰是多种多样的,没有共先验这种东西。”

“共先验假设并不要求每个人拥有完全相同的知识和信仰,即使是来自不同背景的人也可以拥有不同的信念——就像你和我一样——它只是假设每个人的异质性源自于他们拥有不同的信息。”夏洛克淡淡地说道。

莫里亚蒂满含轻蔑地说道:“呵呵,我的朋友,如果从我们出生以后所有的经历都是我们的‘信息’,那么这个先验又从哪里来呢?你是说我们生下来就默认有了这个先验吗?”

“我并非认为先验一定是一个客观上真实存在的东西,但正如我前面所说,它可以是翻译这个世界的工具之一,描述了世界的法则,各种信息之间的关系,指导你我如何理解彼此的交流,你我出生可以是一无所知的,但你我在同一个世界,就算拥有不同的信息,也逐步学习着相同的法则......”夏洛克语速飞快,开始滔滔不绝地阐述自己的想法。

然而,在夏洛克这番长篇大论下,莫里亚蒂只是不屑地耸了耸肩:“你总是这么天真,夏洛克。人类是复杂的动物,世界更是复杂的。规则和制度只是为了让一些人更容易控制其他人。犯罪分子更不会受这些无聊的社会规范所约束。”

“我同意,莫里亚蒂先生,现实是复杂的,但理论上的法则并非指规则制度或者社会规范......”

莫里亚蒂不屑地打断了夏洛克的话,“你总是认为你的理论是正确的。”

夏洛克微笑着摇了摇头,“我承认我的理论不尽完美,但它可以协助我们预测人类行为。比如说,如果我们的理性是我们的共识,长时间的交流后,我们的观点最终会达成一致。”

莫里亚蒂的表情变得冷漠,“那只是你的想法罢了。我们的观点存在太大的分歧。这个话题我已经没兴趣再讨论下去了。”

有关共先验的讨论很多[5]。当共先验作为公理存在时,其受到了诸多攻击[6],最主要的攻击便是如何在没有“事前阶段(ex ante stage)”的情况下理解共先验假设,也就是上述编造内容中莫里亚蒂所提到的如何在每个人出生时理解先验。因此,后续有很大一部分文献将共先验从公理转化成了定理,即证明共先验假设与另一个容易理解性质的等价性[7,8,9]。

理性:共先验 ⇔ 不交易

为了证明这个定理,让我们继续和 SH 与 Prof 的游戏。提到游戏,我们需要设计奖励。为了进一步简化,我们删除一个世界状态。假定无信息下,世界状态等概率出现。

在游戏开始前,作者将交给 SH 一个密闭信封,里面包含了某个案件的线索,这个线索对于 SH 和 Prof 的价值是相同的,但是价值并不确定,取决于世界的状态。信封只能游戏结束后才能打开。游戏中,SH 可以选择以1元的价格卖给 Prof。以 SH 拿到信封后为基准点,如果交易成功,SH 的收益变化为(1-线索价值),而 Prof 的收益变化为(线索价值-1)。如果不交易,两人的收益都为零。同时,我们假设 SH 和 Prof 都只在期望收益严格大于零时选择交易。

因此,即使交易成功,SH 和 Prof 的收益仍然为一个零和博弈,上图描述了不同世界状态下二人的收益。

游戏开始,作者看到世界是蓝色的,并依此给二人发送私有信息。我们可以看到交易并不会产生。根据初始信息:世界是黄色或蓝色的,SH 愿意交易,因为他的预期收益一定大于零。Prof 也愿意,因为根据初始信息:世界是蓝色或绿色的,他的预测收益也大于零。但是当 Prof 发现 SH 愿意交易后,他立刻意识到世界是蓝色的,并反对交易。

当然以上是在动态环境下表现交易为什么没有发生。我们可以考虑一个一次性(one-shot)模型,这里 SH 和 Prof 必须同时说出是否愿意交易,一旦两人都同意时,交易发生。我们将证明:

交易不会发生在贝叶斯纳什平衡[3]

贝叶斯纳什均衡(Bayesian Nash Equilibrium,BNE)的前提条件便是二人的理性是共识。不过我们不需要重新套用前文关于共识的定义,可以直接使用不动点风格的定义,在该定义下,该定理容易被证明:针对任何贝叶斯纳什均衡,如果交易发生,那么 SH 和 Prof 的期望收益一定都是>0,与零和博弈矛盾(见下图)。

注:这里为了描述简单,我们不关注混合策略。

以上结论成立的核心是当 SH 和 Prof 计算期望收益时,用的是同一个先验分布。据此,我们证明了理性:共先验 => 不交易,还剩另一个方向,也是非常有趣的方向,其证明核心为 Farkas's Lemma,即两个不相交的凸集一定可以被一个平面分割。具体证明读者可参考相关文献[7,10]。

证明开始:此刻我们没有了共先验假设。证明中的一个核心概念为局部观点(local views)。以 SH 为例,根据收到不同的私有信息,他对世界会产生不同的分布预测,这些对应着他的局部观点。

Q:为什么局部观点是一个重要的概念?

A:在 BNE 的定义中只要有局部观点就够了,并不需要先验的存在。

和 SH 局部观点一致的先验并不唯一。我们将和 SH 局部观点一致的先验画出来,为右边的一条直线。我们同时将和 Prof 局部观点一致的先验也画出来,为另一条直线。两条直线的相交证明了共先验是可以存在的,即为交点。换句话说,我们可以就像共先验存在一样,对 BNE 进行分析,并证明不交易。

有趣的事情发生在共先验不存在的情况下,这里我们更改了信息结构,如下图所示:

此时,交易产生:

广义上,一旦局部观点不一致,共先验不存在,交易产生,其证明要点如下:

和局部观点一致的先验集合为凸集;

不相交的凸集一定存在分割平面(Farkas's Lemma);

平面的法向量可以用来构造零和博弈下二人的收益向量;

由于二人的局部观点分在平面两侧,因此二人在任意局部观点上都认为交易对自己有利;

交易发生。

至此,我们证明了:

理性:共先验存在⇔ 局部观点一致 ⇔不交易

根据以上定理,我们为共先验假设提供了两种翻译:局部观点一致,不交易。正如前文夏洛克所说,共先验假设可以当作一个数学工具,即如果局部观点一致,我们可以利用共先验假设来翻译这个世界,就好像他们真的有相同的先验一样 (“as if they held some such common prior. ”[8]),这将简化各种分析和证明。

据此,我们似乎找到了一个谁都不会反对的(除了情绪化的莫里亚蒂教授)保守中间地带。然而这一番讨论却似乎对本文主题无益。我们想知道 AI 是否交易,其中不可避免地需要检查 AI 是否满足共先验假设,但当共先验假设被翻译为不交易,那么这个问题似乎变成了循环论。换句话说,我们不能去探讨:

当 AI 满足不交易假设时,AI 不会交易。

因此,在探讨本文主题时,我们可能仍然不可避免地需要重新对共先验、理性、共识等概念进行探讨。

04

AI 福尔摩斯 vs. AI 莫里亚蒂

交易的本质是异质性,一旦我们假设交易的物品对所有人价值一样(common value),异质性的来源就来自先验、理性、信息。前文所述的分析本质上对各种异质性进行了等价、量化分析。例如,信息的异质性在前文中是最弱的异质性,可以通过共识理性和共先验进行消除,而在共识理性的情况下,先验的异质性等价于交易共价值商品所需要的异质性。来到机器的世界,我们熟悉的语言变成了数据、算法、结构、训练,此时有关交易与否的分析就变成了对这些概念异质性的分析,接下来我们尝试在不同框架下来分析这些概念异质性的影响。

AI 训练的本质便是为它设计游戏,那么之前的博弈论框架可以自然被使用。但是,要套用先前的框架、先验,即所有信息的联合分布,无法被直接作为输入。针对每个个体,先验的目的是让个体产生信念等级(belief hierarchy[11]),指导个体如何预测他人,预测他人预测自己,预测他人预测自己预测他人......概念上有些类似于 theory of mind。然而解释这一套信念等级到底是从何而来在机器的世界里无法避免的问题,我们不能像分析之前的游戏那样认为个体自然就被输入这一套信念等级。

为了探讨先验从何而来,我们先考虑单轮情况下 AI 代理人直接的交易,不同 AI 代理人曾经接受过不同的数据和训练。先来探讨对数据的不同的“翻译”:

数据 = 先验:先验来自于之前训练它们所使用的数据。如果我们认为 AI 代理人是从之前包含人类的数据中进行先验联合分布的学习,那么数据的不同自然会造成先验的异质性,甚者结构、算法和训练的不同都会导致机器学习到“翻译”和“理解”法则不同。

数据 = 信息:另一种考虑便是把数据当成信息,机器通过训练把数据转化称信念等级,在这种框架下,训练法则变对应着先验。然而在单轮的问题是 AI 代理人在做决定时除了过去数据提供的反馈,没有任何其它反馈,如何做决定直接取决于人类设置它如何“翻译”这个世界,而贝叶斯纳什均衡的定义也取决于“翻译”方式。例如在第一种翻译下,理性可能对应着交易,而在第二种翻译下,理性可能对应着不交易。但单轮却无法衡量哪种“翻译”方式更好。因此,考虑重复反馈的场景可能是一个更为自然的框架。正如前文所说,机器的行为是由人为设计的反馈和效用所驱动,因此与其将共先验作为一种假设去检验,我们不如在重复的场景下,从收益上直接探讨为什么(不)交易?为什么(不)共先验。

05

为什么(不)交易?

为什么(不)共先验?

趁夏洛克和莫里亚蒂还没走,我们继续看看他们是怎么说的。

前情提要:上次的交易游戏中,作者的游戏规则为夏洛克可以选择以1元的价格将密封线索卖给莫里亚蒂。如果交易成功,夏洛克的收益为(1-线索价值),而莫里亚蒂的收益为(线索价值-1)。不过,在上一次交易游戏中,约翰·华生医生(Dr. John H. Watson)临时来找夏洛克有事,作者盛情邀请了华生医生也加入了这场游戏,但并未给华生医生任何私有信息。华生医生看了看游戏规则提出以1.01元购买夏洛克的线索,并以1.05元卖给莫里亚蒂。虽然莫里亚蒂有些不悦,但二人仍然同意了华生医生的提议,选择了交易(小提示:夏洛克当然倾向于这场新交易,至于莫里亚蒂,在原始规则下,如果交易,莫里亚蒂的期望收益为0.0875)。就这样华生医生通过当“中间商”白赚了0.04元

夏洛克微笑道:“莫里亚蒂先生,好久不见。还记得我们曾经因为对某个线索价值的先验不同而被第三方套利,那个第三方可至今都还在洋洋得意。”

莫里亚蒂的表情有些阴沉,他回应道:“我知道,夏洛克。我们之间的差异使得我们成为了套利的对象。”

夏洛克点了点头:“正是因为如此,选择恰当的学习策略,让我们对世界的理解达成共同的先验,才能保护我们的长期利益。”

莫里亚蒂冷冷地说道:“你认为达成共先验就可以解决所有问题吗?”

夏洛克的声音平静:“我不是这个意思。但是如果我们不能达成共先验,我们就会更容易成为第三方套利的对象。”

莫里亚蒂的表情变得更加阴沉:“你的想法并不重要,夏洛克。无论如何,我都会保护自己的利益。”

夏洛克戏谑着说道:“在足够长时间的交流后,至少我们在防止套利上达成了初步的共识——这验证了我之前的理论。”

莫里亚蒂的表情有些不悦,但是他并没有再说什么。

上述探讨展现了一部分文献的观点,就是共先验这个假设成不成立并不重要,重点是不成立,一定会有没有任何信息的第三方套利的产生,为了防止套利,真正有信息的玩家需要选择具有一致性的行为(coherent behavior)[8]。在动态过程中,玩家可能是逐渐收敛到这样的行为。当然这里的一致性并非指完全一样的行为,而是服从不套利原则的行为,“as if they held some such common prior”。

另一方面,在重复博弈的过程中,“自然”(nature)作为玩家选择随机的世界状态,而其它玩家通过学习“自然”的策略,也将慢慢收敛到稳定的一致性行为,换句话说,达到了共先验。

不管是什么样的思路,以上观点的核心思想都是共先验是一个提高效用的目的,而不是假设,这样来看,前文中关于共先验是公理还是定理的思考在本文主题上并不一定是循环论。我们探讨的不是:

当 AI 满足不交易假设时,AI 不会交易。

而是:

当 AI 需要防止第三方套利时,AI 不会交易。

现在我们回来看看文章开头提的问题:

Q1:什么是先验,对机器来说先验到底是什么?对于目前的大语言模型,什么是它的先验?如果先验可以让个体理解他人,那么大语言模型是否可以“理解”他人?

严格来说,先验是世界状态的分布,而世界的状态决定了所有的信息,所以先验是所有个体私有信息和其它信息的联合分布。该联合分布定义了个体的信念等级 (belief hierarchy),进而让个体根据自己的私有信息对某事件进行预判,预判别人的预判,预判别人预判别人的预判......对于个体而言,其行为可以通过信念等级决定。福尔摩斯原著里夏洛克便通过信念等级进行推理断案。

对于大语言模型,在探讨先验之前,一个更为有趣的问题便是它是否有信念等级,即它是否能推测他人的想法,推测他人是如何看待自己的......这和认知领域里 theory of mind 概念有一定联系。

在回答这个问题之前,让我们回到和 SH/Prof 二人的第一场交易游戏。

假设我们让 SH 和 Prof 轮流发言,每一次都要根据自己当前对世界颜色的推测选择是否交易,当然如果他们交易的期望收益>0,他们就会选择交易。

当第一轮 SH 决策时,他只需要关心他的私有信息和世界状态的关系,换句话说这是一个一阶推测。

第二轮 Prof 决策时,他需要通过根据 SH 第一轮的行为推测 SH 的私有信息,并进行决策,这需要二阶推测。

第三轮 SH 决策时,他需要根据 Prof 第二轮的行为对 Prof 的私有信息进行推测,由于 Prof 第二轮的行为取决于 Prof 是如何推测 SH 的,那么 SH 需要推测 Prof 是如何推测 SH 的,这需要三阶。

换句话说,随着轮数的增加,SH 和 Prof 需要更高阶的推测,这些自然是从他们的信念等级而来。

现在我们来考虑让 AISH 和 AIProf,我们无法假设他们一开始就拥有信念等级,并依此交互。但是我们可以不断随机选取世界状态,并设计奖励对它们进行训练,最终训练它们得到更新法则,更新法则输入私有信息和交互历史后就可以输出行为。

通过恰当的奖励设置,我们可以最终训练 AISH 和 AIProf 得到 SH 和 Prof 的更新法则,该更新法则可以让他们像 SH 和 Prof 一样进行交互。

那么此刻可以说 AISH 和 AIProf 拥有了信念等级和预测他人,预测他人预测他人的能力吗?

这个阐述和“中文屋实验”[12]的思想类似:

“一个对中文一窍不通、只说英语的人被关在一间只有一个开口的封闭房间中。房间里有一本用英文写成的手册,指示该如何处理收到的中文讯息及如何以中文相应地回复。房外的人不断向房间内递进用中文写成的问题。房内的人便按照手册的说明,寻找合适的指示,将相应的中文字符组合成对问题的解答,并将答案递出房间。”

事实上,在中文屋实验之前,短篇科幻小说《游戏》(The Game, Anatoly Dneprov)也阐述了类似的观点。

大语言模型就是训练一个“手册”,根据上文预测下文。从某种角度来说它似乎只在做一阶推测,从另一种角度来说,它如果训练得当,可以和拥有高阶信念等级的人表现的一样。虽然中文屋实验是用来作为强人工智能的反驳,但是作者更倾向于通过以上思想实验表达如下观点:

在机器的世界里,“信念等级”“先验”只是某种翻译(interpretation),甚至是幻想(illusion),我们可以认为“就好像(as if)它们真的有先验、信念等级一样”。

就算中文屋里的机器通过学习得到了这个手册进行反馈又如何,不管这个手册是以枚举的形式进行记录,还是有一些看起来更“聪明”的,具有泛化性的压缩方式,我们仍然可以认为就好像这个机器理解中文一样。

Q2:共先验假设意味着什么,到底是公理还是定理,在机器的世界里,我们该如何理解这个假设?

在讨论人的情况下,探讨共先验到底是公理还是定理不可避免有一些哲学的意味,可能反倒是在机器的世界探讨这个问题更加清楚。根据前文所述,在机器的世界里,共先验假设意味着机器行为的某种一致性,意味着不存在第三方套利的可能。如果我们愿意把不存在第三方套利当作公理,那么我们可以认为“就好像机器们有某种相同的先验一样”。

在机器的世界里,真实的只有它的训练目标,数据,训练算法,但这不妨碍我们使用先验对它们进行翻译。至于在人的世界,究竟什么是真实的,可能每个人观点都不一样。虽然仍然有很多有意思的点可以再深入探讨,不过我们就此收尾,留下一些开放式话题

/ 开放式话题 /

理性

一个我们没有深入探讨的话题便是理性,本质上理性就是采取最优行为。在机器的角度探讨不交易定理,无非是因为过去大量文献认为人交易的理由源于不够理性,机器的算力可以让它比人类更理性,但是理性是需要复杂度的,多个智能体向稳定点收敛的过程也是十分复杂的,那么算法理性的探讨将十分有意思。

异质性检验

前文的阐述里提供了一个有关先验的十分有意思的异质性检验思想,那就是第三方是否套利,事实上有很多最新的工作在不同的场景下对这一检验进行设计。或者未来可以有 ChatGPT 和人类的异质性检验。此外,有关数据、算法、结构、训练的异质性分析也值得更深入的思考。

价格发现

假设在未来的未来,机器们走向不交易的平衡点,价格发现将会是个难题。当然有很多交易是因为交易双方彼此对于物品的价值有本质不同而产生,例如夏洛克花钱租赁贝克街的公寓,但仍然有大量的交易不是如此。那么未来如何通过交易进行价格发现?可能需要价格发现的个体本身就需要花钱购买信息,为了不从有信息的交易者中进行“信息套利”,该个体需要花钱给市场增加流动度,促进价格发现。

参考文献:

[1] https://www.forex.academy/what-percentage-of-forex-is-spec-trading/

[2] Geanakoplos, John. "Common knowledge." Journal of Economic Perspectives 6.4 (1992): 53-82.

[3] Milgrom, Paul, and Nancy Stokey. "Information, trade and common knowledge." Journal of economic theory 26.1 (1982): 17-27.

[4] Aumann, Robert J. "Agreeing to Disagree." The Annals of Statistics 4.6 (1976): 1236-1239.

[5] Morris, Stephen. "The common prior assumption in economic theory." Economics & Philosophy 11.2 (1995): 227-253.

[6] Gul, Faruk. "A comment on Aumann's Bayesian view." Econometrica 66.4 (1998): 923-927.

[7] Samet, Dov. "Common priors and separation of convex sets." Games and economic behavior 24.1-2 (1998): 172-174.

[8] Nau, Robert F., and Kevin F. McCardle. "Coherent behavior in noncooperative games." Journal of Economic Theory 50.2 (1990): 424-444.

[9] Morris, Stephen. "Trade with heterogeneous prior beliefs and asymmetric information." Econometrica: Journal of the Econometric Society (1994): 1327-1347.

[10] Morris, Stephen E. No trade and feasible joint posterior beliefs. A working paper, 2020.

[11] Harsanyi, John C. "Games with incomplete information played by "Bayesian" players, I–III Part I. The basic model." Management Science 14.3 (1967): 159-182

[12] Searle, John R. "Minds, brains, and programs." Behavioral and brain sciences 3.3 (1980): 417-424.

推荐阅读