对于作为生产要素的数据的引入,拓展了传统经济学理论的研究范畴。数据的非竞争性和有限排他性等特征虽然给传统经济学的经典假设带来了一定程度的挑战,但也为建立和发展数字经济时代的经济学理论带来了重要契机。
自美国经济学家罗伯特·默顿·索洛(Robert Merton Solow)(1957)提出Y=A·F(K,L)的生产函数以来 ,经济学界提出的各种增长理论及相应的模型主要是对生产函数表达形式的细化、改进和再阐释,区别主要在于对生产函数中解释变量设定的内生化、外生化程度及具体内涵的重新界定。数据由于非竞争性、有限排他性等不同于其他要素的特质,其参与经济活动的性质、渠道与传统的劳动、资本、技术等要素存在一些差异。因此,数据出现后,国内外不少学者对古典增长模型也进行了调整和修正。例如,有学者强调数据是可用于减少预测误差的信息,暗示了数据是回报有界的生产函数 ;也有学者认为“数据即劳动力”,即数据是许多科技公司的关键输入 。张才明等通过将资本、劳动、技术分为信息类和非信息类,构造了包括新的信息技术的经济增长模型。 杜秦川构建了包含数据要素的经济增长模型的生产函数。 徐翔将传统生产函数中的资本部分做了进一步分类,从原有部分中专门划分出一块作为单独的数据资本,进而与非数据资本的其他资本、劳动要素结合建立经济增长模型,总体上还是保留了传统经济增长理论中生产函数的基本形式。 但该模型忽略了数据要素与劳动、资本要素在经济性质方面的差异,并且没有考虑到数据要素对劳动力要素的提升作用,忽略了数据通过制度、规则、决策、协调等发挥的促进作用。
也有不少学者提出数据要素是对内生增长理论模型的拓展 。基于知识资本是一种非减少性资源,可以通过投资和创新来积累、增加,而技术进步也可以促进知识资本的积累和增加,从而推动经济增长的思想,罗默建立了一个数学模型,用来描述技术进步 、创新 和知识资本 等驱动因素对经济增长的影响。表达式为:
Y = A·F(K, H)
其中,Y代表GDP,K代表物质资本,H代表知识资本,A代表全要素生产率,F表示生产函数。
然而,数据驱动的经济具有“普遍的信息不对称”、通过人工智能学习产业化、赢家通吃导致的“超级巨星”公司的增加、未被传统经济会计系统捕捉价值的新形式的贸易和交换以及由信息基础设施的漏洞而导致的系统性风险这几个结构性特征,这使它成为普遍内生增长模型的一个特例。例如,人工智能将通过有效的图灵测试,这标志着机器智能与人类智能相匹配的时刻的到来,也意味着人力资本价值的贬值。“机器知识资本”存量,既是人力资本的补充,也是替代品。
完全竞争市场假设是传统经济学的研究基础。完全竞争市场假设所包含的条件就是信息完全性假设,即在任何情形下,信息对称且确定,交易双方的信息占有量完全相同且相等,并且获取信息的成本为零。但是在市场经济条件下,信息具有分散性,这大大削弱了新古典经济学的理论基础。在此之后发展起来的信息经济学,则在很大程度上弥补了传统经济学对信息要素重视不够的问题,阿克洛夫、斯彭斯和斯蒂格利茨等人分别提出了逆向选择和道德风险,成为经济学研究信息不对称和信息不确定性的理论基础。但由于机制设计理论尚处于起步阶段,信息不对称理论并不能解决市场中的所有问题。
信息不对称作为一种由信息匮乏导致的客观经济现象,表现为人类面对海量信息资源时不对称地拥有和管理以及在经济活动中产生的信息壁垒。而在大数据时代,随着数据获取、存储、分析等技术的发展,大量数据交叉聚合所形成的突变效应变得越发明显,信息(数据)已经从完全竞争市场的假设中脱离出来,成为一个新的生产要素,并参与到价值创造过程中去。信息不对称的形式也将发生改变,成为数据不对称。
一方面,数据减少了信息不对称的情况,降低了信息的搜索成本 。艾伦·格林斯潘认为,信息与通讯技术(ICT)革命将降低商业周期带来的严重影响。金融市场 、劳动力市场 和零售市场都较为关注低搜索成本所带来的影响 。低搜索成本相关论文中的想法源于早期将搜索成本建模为收集信息成本的文献。 c d
另一方面,数据也引发了新型的信息不对称 。这既包括人类和机器之间的信息不对称,也包括企业间和国家间的信息不对称。数据驱动经济模型与知识型经济模型的基本区别在于,即使知识在一段时间内是可以被创新企业垄断的,但从长期来看,它是所有人都可以获取的潜在资源。然而,“大数据”所提取的信息并非如此。对于人类大脑来说,大数据是毫无意义的噪声;而对于计算机来说,它是一个信息矿。正是计算机从这些噪声中提取系统信息的能力,构成了大数据以及建于其上的算法的价值主张的基础。因此,人类和机器之间的信息不对称是数据驱动经济的基础,也使其容易受到市场失灵的影响。由于利用大数据需要巨额的资本投资,因此信息不对称往往存在于企业之间;鉴于数字鸿沟的存在,它也存在于不同国家之间。信息不对称以及由此产生的市场失灵是数据经济所带来的经济增长源泉的根源,也是它的“原罪”。
数据经济的发展引发了交易成本理论变革。在传统经济模式中,市场存在信息不对称、合约不完备、道德风险等问题,会导致交易的不确定性和风险,从而需要企业为保护自身利益而承担交易成本,包括搜索成本、谈判成本、监督成本、合规成本等。但是,数据要素的出现为交易成本理论带来了重要的挑战和发展。它不仅降低了传统交易的成本,还促进了新型交易模式和渠道的出现。戈德法布等指出,数字技术的出现降低了经济活动中的搜索成本、复制成本、运输成本、跟踪成本和验证成本。
具体而言, 一是增加了信息的透明度和可获取性 。在过去,买卖双方之间存在信息不对称的情况,因而交易成本得以存在。但现在,信息可以通过互联网和其他数字技术快速传递和共享,这降低了信息不对称的程度,进而降低了交易成本。 二是增加了交易的速度和效率 。传统的交易需要人工介入,而数字技术可以自动优化交易过程,这使得交易成本得到降低,同时也提高了交易的可靠性和准确性。 三是促进了新型交易模式和渠道的出现 。例如,电子商务、虚拟货币和区块链等新型交易模式不仅降低了交易成本,还提供了更加安全和透明的交易环境。在线交易平台、社交媒体和移动应用程序等新的交易渠道提供了更多的选择和灵活性,使得交易更加便利和高效。 四是推动了生产组织方式的变化,促使企业边界扩大 。传统意义上,企业规模取决于内部交易成本与外部交易成本之间的平衡,而且企业能够比市场更有效地促进交易。而数据要素具有非竞争性等特征,这为生产过程模块化、生产组织平台化和网络化创造了条件。例如,互联网、大数据、云计算、人工智能等技术支持使劳动力资源得以在全球范围内形成虚拟集聚和协同。数字资源的新属性降低了内外部交易成本,促使企业边界扩大。数字连接提升了各类生产主体间的连通性,因此涌现出众包、外包、在线创新社区等平台化、网络化的生产组织形式,为共享经济、零工经济的发展提供了可能,促使生产主体更加多元化、微粒化。
总的来说,数据要素的引入可以为拓展现有经济学理论提供新的重要的试验场景。同时,传统经济学理论中不能够适用和解释数据要素带来的经济学现象的部分也激发了经济学新理论的构建。但目前在国际上还未形成公认的数据经济理论体系,亟须更多学者共同投入其中。
大数据的可获得性和机器学习的应用,引发了经济学实证研究范式与研究方法的变化。著名计算机科学家詹姆斯·格雷(2007)在美国国家科学研究委员会发表演讲时指出:“科学研究经历了从实验科学到理论科学,再从理论科学到计算科学和模拟复杂现象等几个阶段,未来将进入数据探索阶段,届时人们将转向将理论科学、实验科学和模拟复杂现象相互融合在一起的新科学,理论研究和应用可以实时融合,从而实现人类科学研究范式的跨越。”
过去几十年中,经济学研究范式的一个重大变革是实证革命。也就是说,实证革命是将数据作为基础,以计量经济学为主要方法来研究并解释经济变量之间的逻辑关系,特别是因果关系的研究范式革命。如果我们看1963—2011年发表在经济学顶级期刊的论文,会发现20世纪80年代中期以前大部分论文都是理论性的,而从80年代中期以来,实证研究论文比例攀升到超过70%。 著名经济学家安格里斯特指出,从1980年到2015年,国际顶尖与主流经济学期刊以数据为基础的实证研究论文数量从不到35%上升到55%左右,而理论性论文数量则从近60%下降到不到40%,实证研究成为现代经济学主流的研究范式。 40多年来,中国经济学的研究范式也经历了显著转变,从以定性研究为主逐渐转变为以定量实证研究为主。 然而,美国未来学学者帕特里克·塔克尔在《赤裸裸的未来》一书中强调,在传统经济社会中,当我们已经形成了具有倾向性的结论或者正准备提出某个意见的时候,会下意识地选择支撑这一结论的论据和事实。最终,我们会发现即使错得离谱,仍然能够找到某些数据支撑,过度拟合存在于我们的天性当中。 而拟合恰恰是统计学和计量经济学的核心理念,因此,传统的统计理论亟须被修正,大数据面向总体的数据分析方法则能够很好地解决人们在观点研究过程中的数据获取问题。
维克托·迈尔-舍恩伯格和肯尼思·库克耶在《大数据时代:生活、工作与思维的大变革》中指出,大数据时代的研究方法将引发三方面变革。一是分析问题的时候可集中全体数据,而不是样本数据,大数据使得数据全体成为研究对象。二是要乐于接受纷繁复杂的数据,而不再去追求简单的精确性。因此,基于假设检验的研究也不是大数据所必需的。三是大数据时代不再探索难以捉摸的因果关系,而更加注重相关关系,因为传统的因果关系有时候很难验证,相关关系则相对来说比较容易捕捉。
海量数据的可及性和广泛应用拓展了传统计量经济学的研究方法。大数据分析和计量经济学的差异主要包括两方面: 一是处理的数据类型不同 。计量经济学一般只能处理结构化数据,数据类型主要包括截面数据、时间序列数据和面板数据,且数据具有清晰的经济学含义。而大数据分析的数据类型除了结构化数据,还包括许多非结构化数据,如文档、视频和图像等,一般难以用通常的可视化形式来表达。 二是分析的侧重点不同 。计量经济学的分析重点是数理统计中的假设检验,核心理念与波普尔的证伪主义非常接近。计量经济学通过某个假设检验来证伪或者证实某个经济理论。相比之下,“预测”在大数据分析中扮演着更重要的角色,对预测效果的后评估也是大数据分析的重要内容。
需要指出的是,在经济学研究方法和范式转型中,经济学家也将面临一系列挑战。其中,包括访问数据、发展处理大规模数据集所需的数据管理和编程能力。 最重要的是,思考创造性的方法来总结、描述和分析这些数据中包含的信息。 总的来说,数据不能替代常识、经济理论或严谨的研究设计,数据推动的经济学研究方法和范式转型还需要更多更深入的研究和学界的共同推进。