根据OpenAI公司用户协议中的知识产权条款 [5],OpenAI公司在用户遵守用户协议条款的前提下,同意向用户转让其对ChatGPT自动生成输出的内容的所有权利、所有权和权益,同意用户对用户主动输入的内容享有所有权利,并认为用户应当对使用ChatGPT服务时输入输出的整体内容负责。由此可见,OpenAI公司倾向于将ChatGPT生成文本的知识产权归属于用户,但强调用户应对本文内容负责,似乎认为用户是决定和控制着ChatGPT最终内容呈现的创作者。
而在我国人工智能生成作品第一案中[6],一篇由AI生成的文章被认定为受法律保护的作品,同时软件的开发者被认为是相应权利人:腾讯Dreamwriter软件是一款基于数据和算法的智能写作辅助系统,自2015年至该案诉讼时已由腾讯主持创作人员使用并每年完成30万篇左右生成的文章。对于腾讯指控被侵权的AI生成文章,法院首先从文章的外在表现包括结构、表达及对数据的选择、分析、判断等方面认为Dreamwriter软件生成内容符合文字作品的形式及独创性要求,又进一步从生成过程即经历数据服务、触发和写作、智能校验和智能分发环节论述了数据类型的输入与数据格式的处理、触发条件的设定、文章框架模板的选择和语料的设定、智能校验算法模型的训练等均体现了主创团队相关人员选择与安排。法院认可了这种由主创团队的创作过程符合著作权法关于创作的要求,满足对文字作品的保护要求。法院进一步认为,相应文章是在腾讯的主持下,由包含编辑团队、产品团队、技术开发团队在内的主创团队运用Dreamwriter软件形成的整体智力创作完成作品,并且相应内容由腾讯对外承担责任,因此构成法人作品。
但笔者认为该案的判决思路与认定结果并不能完全适用于ChatGPT,首先ChatGPT的绝大多数输出内容很难说是OpenAI的意志选择或控制,实际上OpenAI为了ChatGPT可在更广泛话题上的通用性在训练时更有意避免针对特定领域或话题的控制与选择,以避免呈现模型的过拟合(overfitting)问题;其次ChatGPT所使用的语料库是海量的,ChatGPT无法有效标记来源并不符合学术伦理;第三,ChatGPT提供的答复内容在一定程度上同时受到提问者对问题塑造的影响,此时并不能简单的将权利人归于单一开发者;第四,可以预见AIGC内容在不久的将来会成倍甚至成指数地增加且充斥于互联网,其产出的速度将远快于仅通过人类的输出,如果不假思索地对这类内容进行知识产权保护也即赋予个别开发者垄断地位,将可能发生网络信息的“圈地运动”,一方面极大地“污染”互联网环境,另一方面也会不合理地阻碍信息自由流通。
2. 使用ChatGPT可能发生的剽窃问题
ChatGPT实质是以统计学上的概率从其训练数据的现有文本来生成新的文本,所生成的文本可以包含与训练数据中的文本相似甚至相同的段落和短语。同时其也有能力生成以前从未见过的单词、短语和句子的新组合。[7]因此,ChatGPT接受训练所使用的数据库本身“清洁性”(不侵犯他方知识产权)尤为重要,如果数据库本身带有侵权内容[8],ChatGPT的回答将很有可能发生侵权情况。
在ChatGPT输出内容侵害第三方版权的情况下,OpenAI公司、API接口调用者、终端对话的用户如何承担法律责任,存在很大的法律争议。根据OpenAI公司的用户协议, OpenAI公司认为用户应当对使用ChatGPT时输入输出的整体内容负责,似乎认为用户是决定和控制着ChatGPT最终内容呈现的创作者。ChatGPT更是答复认为自己属于技术中立的通用型AI,内容是否违法应当考虑的AI使用者将其应用到何种用途与场景。我们认为,OpenAI公司的观点角度具有一定的合理性,但我们目前并不确定用户究竟在多大程度上可以控制ChatGPT输出的内容,也无法肯定目前测试版本的ChatGPT是否满足技术中立原则的要求。况且从法律效力上,上述用户协议约定仅有对内效力,仅影响OpenAI公司与用户之间的责任分摊,不具有对外效力,不能阻止第三方版权人直接向OpenAI公司、API接口调用者等其他涉及提供技术服务的主体主张连带责任。尤其考虑到中国近年来的司法实践,算法服务的提供者往往需要对所推荐内容承担法律责任,如国内某短视屏平台已经连续被判对由用户上传、算法推荐的侵权内容承担间接侵权的法律责任,推荐算法服务的提供者往往被法院课以较高的注意义务,有义务采取更为有效的措施制止侵权内容。但这样的司法观点是否可以类推适用于通用型的AI算法,我们仍需要进一步的研究论证。
如果要追究用户的责任,需要考虑用户的具体行为与过错。如果用户有意利用ChatGPT对内容重组的能力,在“洗稿”后以自己名义发布,将很可能构成剽窃,侵犯他人的相关著作权。
对于将ChatGPT接入国内网页或集成到自身其他网络服务的网络服务商而言,很有可能也会承担帮助侵权的责任,如网络服务商诱导用户进行洗稿、专门为用户提供制作侵权内容的工具等。尤其是国内许多将ChatGPT接入自己的网页或应用界面的网络服务提供者,属于对ChatGPT输出内容的深度链接,并未跳转显示OpenAI的网站,并且扩大了OpenAI的网站原本受限的用户范围、创造了独立的传播源,对OpenAI的网站有实质性替代的作用,将有可能被视为传播侵权内容的直接侵权人。
3. 数据库权益价值将进一步提高,涉数据不正当竞争行为应引起重视
随着ChatGPT概念的继续发酵,在2月8日知乎港股午后一度飙升近60%,中银国际报告认为,拥有数据和资本优势的大型平台公司,将较AI软件企业更将受惠,其中知乎正符合拥有海量优质数据的特点。[9]
对于ChatGPT这类自然语言生成模型而言,模型本身包括相关参数等固然关键,同时训练所用数据库也极为重要。而数据库整体作为相关实体多年长期投入所形成的的竞争性权益,受到法律保护,随着AI技术的发展将更成为稀缺资源。企业对于自身数据库中所包含内容权利的巩固及整体权益的维护,亦将成为未来取得更大商业上成功的基石。
根据国内的司法实践,对于数据权益主要还是通过反不正当竞争法进行保护。如果国内的经营者通过会员账号租赁、共享的方式为国内用户提供ChatGPT服务,实质替代了OpenAI,截取了OpenAI网络流量,或者妨碍了OpenAI正常提供服务,将来很可能构成不正当竞争的行为。[10]
4. 直接使用“ChatGPT”名称或标识也有潜在风险
根据笔者的查询,OpenAI已于去年12月27日就ChatGPT商标在第9类及42类向美国专利及商标局提出申请。对此可能会有疑问,ChatGPT明明在去年11月30日就已推出,为何那么晚才提出注册商标申请?实际上美国对商标专用权的确立采取使用在先原则,更强调对商标的实际使用或实际使用意图,并非以注册为取得权利的唯一标志,也因此即使没有注册,也同样可以获得保护。
相比起来,国内目前抢注与ChatGPT有关商标、公众号一片火热,相关商标抢注的申请人包括深圳、合肥、广州、四川等地的科技、贸易公司及多名自然人,参考国际分类,涉及到广告销售、科学仪器、网站服务等,当前商标状态均为申请中。微信公众号也是ChatGPT加速抢占的阵地,从2022年12月开始,步入注册高峰。目前统计来看,包括ChatGPT在线、ChatGPT入口、ChatGPT入口体验、ChatGPT聊天机器人、ChatGPT AI、ChatGPT机器人、ChatGPT对聊等在内,已经有包括上百个公众号面世。[11]
但国内的这种抢注和使用行为实际上是难以受到法律有效保护的,我国《商标法》规定申请注册和使用商标,应当遵循诚实信用原则,并且不得与他人在先取得的合法权利相冲突。这类抢注他人已经使用并有一定影响的商标原则上难以得到授权,同时在相关权利人提出异议或提出无效后,相关商标也将很可能被不予注册或宣告无效。
此外,ChatGPT若被认定为具有一定影响的产品/服务名称,也将得到我国《反不正当竞争法》的保护,相关经营者如果实施混淆行为,在未取得有效授权的情况下引人误认为其产品或服务与ChatGPT或OpenAI存在特定联系,将构成不正当竞争而需承担相应法律责任。
二、ChatGPT国内商用的数据合规问题
1. 个人信息保护
OpenAI公司的隐私政策明确列出其提供的服务涉及收集使用多方面的个人信息[12],包括用户的通信信息、登录信息、设备信息、Cookies等。国内经营者在接入此类服务时,至少涉及向OpenAI公司共享用户的通信信息,应尤其注意个人信息保护方面合规义务,如:
(1)应当向用户明确提示产品中所接入的ChatGPT由第三方提供,需要列明向第三方主体共享的信息,使用的场景,使用的目的,共享的方式以及第三方个人信息处理的规则;
(2)就上述个人信息收集利用的情况征得用户的同意;
(3)遵循最小必要的原则;
(4)注意有关第三方接入管理的义务,涉及包括多方面的管控义务,如“应与第三方产品或服务提供者通过合同等形式明确双方的安全责任及应实施的个人信息安全措施”,再如“产品或服务嵌入或接入第三方自动化工具(如代码、脚本、接口、算法模型、软件开发工具包、小程序等)的,宜采取以下措施:1) 开展技术检测确保其个人信息收集、使用行为符合约定要求;2) 对第三方嵌入或接入的自动化工具收集个人信息的行为进行审计,发现超出约定的行为,及时切断接入。”[13]
(5)OpenAI的用户协议要求用户已满18周岁,应当注意未成年人的保护问题,必要时限制未成年人用户的账号功能。
2. 数据出境安全评估
根据《数据出境安全评估办法》第四条的规定,触发申报数据出境安全评估义务的情形包括:(1)数据处理者向境外提供重要数据;(2)关键信息基础设施运营者和处理100万人以上个人信息的数据处理者向境外提供个人信息;(3)自上年1月1日起累计向境外提供10万人个人信息或者1万人敏感个人信息的数据处理者向境外提供个人信息;(4)国家网信部门规定的其他需要申报数据出境安全评估的情形。
根据《数据出境安全评估办法》第五条的规定,在申报数据出境安全评估前应当开展数据出境风险自评估,重点评估内容包括:(1)数据出境和境外接收方处理数据的目的、范围、方式等的合法性、正当性、必要性;(2)出境数据的规模、范围、种类、敏感程度,数据出境可能对国家安全、公共利益、个人或者组织合法权益带来的风险;(3)境外接收方承诺承担的责任义务,以及履行责任义务的管理和技术措施、能力等能否保障出境数据的安全;(4)数据出境中和出境后遭到篡改、破坏、泄露、丢失、转移或者被非法获取、非法利用等的风险,个人信息权益维护的渠道是否通畅等;(5 )与境外接收方拟订立的数据出境相关合同或者其他具有法律效力的文件等(以下统称法律文件)是否充分约定了数据安全保护责任义务;(6)其他可能影响数据出境安全的事项。
三、ChatGPT国内商用的网络安全风险与人工智能治理
1. 国际联网违规风险
ChatGPT并非因国内网络环境的监管要求导致国内用户无法登录访问,而是OpenAI公司主动禁用来自中国的IP地址访问,禁用的理由目前并不明确。笔者认为,企业如果是自行建立或租用专线(含虚拟专用网络VPN),为用户访问境外ChatGPT提供代理服务,存在较高的违规风险。2017年1月,工信部发布《关于清理规范互联网网络接入服务市场的通知》,明确“未经电信主管部门批准,不得自行建立或租用专线(含虚拟专用网络VPN)等其他信道开展跨境经营活动。基础电信企业向用户出租的国际专线,应集中建立用户档案,向用户明确使用用途仅供其内部办公专用,不得用于连接境内外的数据中心或业务平台开展电信业务经营活动。”
实践中,外贸企业、跨国企业因办公自用等原因,需要通过专线等方式跨境联网时,可以向依法设置国际通信出入口局的电信业务经营者租用。依法使用VPN的关键是通过有合法许可的服务提供商,该服务提供商必须有经营国际通讯业务的资质,或者是一个已获授权的具备国际通信出入口局的基础电信业务运营商。从已获授权的基础电信业务运营商处获得的VPN服务也只能在企业内部使用。需要注意的是,上述违规行为情节严重的,将可能构成非法经营罪。
2. 互联网内容审查
现阶段,任何语言类生成AI本身都存在准确性不足、道德伦理边界感差等固有缺陷,OpenAI自身也承认ChatGPT有时会写出看似合理但不正确或荒谬的答案,解决这个问题具有挑战性。虽然OpenAI已努力使模型拒绝不当请求,但它有时会响应有害指令或表现出有偏见的行为。OpenAI正在使用Moderation API来警告或阻止某些类型的不安全内容,但预计ChatGPT目前仍会有一些漏报和错报。[14]
也即是,ChatGPT在商用时很大概率会出现“有毒内容”,在商用时相关企业必须做好此类“有毒内容”的过滤,如限制用户输入及通过自建库或第三方服务等方式。
3. 算法合规风险
《互联网信息服务算法推荐管理规定》与《互联网信息服务深度合成管理规定》是目前国内直接监管人工智能技术的两个重要法律文本,《互联网信息服务深度合成管理规定》也是新近正式生效,宜重点关注。
根据《互联网信息服务算法推荐管理规定》,算法推荐技术是指利用生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等算法技术向用户提供信息。根据《互联网信息服务深度合成管理规定》,深度合成技术是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术。我们认为,ChatGPT涉及的服务已经落入了上述两部法律的规范射程内。
但ChatGPT服务的API接口调用者,是否属于上述法律规定的算法推荐服务提供者或深度合成服务提供者,进而承担何种合规义务,是存有争议的。《互联网信息服务深度合成管理规定》明确区分了“深度合成服务提供者”、“深度合成服务技术支持者”与“深度合成服务使用者”三个概念:深度合成服务提供者是指提供深度合成服务的组织、个人;深度合成服务技术支持者,是指为深度合成服务提供技术支持的组织、个人;深度合成服务使用者,是指使用深度合成服务制作、复制、发布、传播信息的组织、个人。对于什么是算法推荐服务的提供者,《互联网信息服务算法推荐管理规定》并没有作出明确规定。如果国内商用ChatGPT的经营者被认定为是服务的提供者而非使用者,尤其是在自己产品或服务上集成ChatGPT的功能供用户使用的情况下,将至少面临实名认证、 显著标识、算法可解释、内容审查、确保用户自主决定权、备案及安全评估等进一步的合规义务。
由此看来,国内接入ChatGPT商用可能在技术上非常简单,但面临的合规义务不容小觑。
四、美国法律方面的风险
我们注意到, OpenAI用户协议第9条第(h)款规定,该公司提供的服务受美国出口管制相关规则所约束,不得出口到任何美国禁运国家[15]。
美国商务部工业与安全局(Bureau of Industry and Security, Commerce,下简称“BIS”)的禁运规则在多数情况下是具体的,并未完全禁止美国公司向中国提供技术服务。根据其官网公布的禁运规则解释文本及其对应表格,中国相对于美国而言属于D组禁运国家,主要禁运领域为国家安全、核工业、化学与生物领域、导弹科技和其他军事领域,并非“完全禁运国家”[16]。但是,对于电子产品、电子通信、电脑、信息安全等领域相关的设备、组件、材料、软件及其相关科技向中国的出口,需要向美国相关部门进行报批。此处需要指出的是,从目前BIS相关禁运规则条文本身看,所述“软件”、“科技”均暂不包括通过网页直接提供AI自然语言处理服务的情形。但是,早在2018年,BIS就公布了《关于审议对新兴技术管制的预约立法建议》(Review of Controls for Certain Emerging Technologies)并征求社会意见[17]。在该立法建议中,BIS建议对人工智能领域,包括但不限于计算机视觉、语音和音频处理、自然语言处理等领域加强监管,而这些领域与ChatGPT使用的技术息息相关。
从另外一个角度看,用户协议(Terms of Use)本身的性质属于合同,除法定情形外,一般认为遵循意思自治的原则,对合同各方均具有拘束力。该条款对于出口管制相关表述作为OpenAI公司提供的通用格式条款,可以视为OpenAI公司对于更严格的禁运规则的主动选择适用。很显然,从民事法律关系的角度来说,OpenAI公司并没有义务向不特定主体无条件提供其服务。因此OpenAI公司主动套用出口管制规则,或者选择性地适用较法规而言更加严格的出口管制规则,作出“不向特定地区/主体出口”的商业决策,并不违反美国法律的强制性规定。
OpenAI公司作出该种选择的原因仍然不得而知。我们从企业合规的角度推测,该种决策可能更多地是基于对合规风险的规避和对未来风险的规避两点考虑所作出的。从对合规风险的规避角度看,美国虽未将中国列为E组“完全禁运国家”,但将很多中国实体列入了负面清单。如,美国针对中国军事科学院、中国核工业集团等单位实施“完全禁运”,规定所有受《出口管制条例》(Export Administration Regulations,或缩写为EAR)管辖的项目都以禁运为原则[18]。在美国相关主体无法确定中国大陆地区潜在用户是否属于被禁运实体,且不宜过度收集每一位用户个人信息的情况下,完全限制中国大陆地区的访问亦非不可理喻的选择。从对未来风险规避的角度看,如上所述,BIS早已发布针对AI领域加强监管的立法建议。OpenAI公司作为一家美国公司,在当今的国际形势下作出相对保守的合规选择,并不反常。
固然,不论从法律实务还是公司经营决策的角度看,“是否违约/侵权”和“是否需要实际承担赔偿责任”是两个不同维度的问题。从美国行政、司法部门的角度看,并不必然能够查知每一起违反相关禁运规则案件的事实,也因此不必然会对每一起具体案件中的相关责任主体进行处罚。但是作为相关服务提供者,OpenAI公司也在用户手册中对于被限制使用地区的用户通过“技术手段”体验或使用该种服务的情形进行了规定。如,该手册第2条第(c)款第(vii)项对通过API转接适用ChatGPT服务的情形作出了限制,禁止未经同意出让、转售API秘钥,或超出OpenAI服务范围使用其提供的服务[19]。
对于违反该种规定/约定所可能导致的后果,OpenAI用户手册第6条了中止服务的情形,包括经提前30日通知停止服务和一经通知立即停止服务两种具体情形。同时该用户手册第9条第(j)款中保留了向法院申请禁令及任何其他救济/求偿的权利。
综上,对该问题可以得到初步结论:1)通过“技术手段”使用ChatGPT相关服务存在较高的账号封禁风险;2)通过“技术手段”接入ChatGPT的API,自用或向第三方提供ChatGPT相关服务存在较高的封号风险,可能面临OpenAI或其授权的主体的起诉与追偿,同时在不远的将来可能存在违反美国进出口管制相关规定的风险。
五、未来展望与思考
我们同样关心的是,在不久的未来,ChatGPT及相关技术在是否会改变现有的知识产权相关实践?
1.技术:协助优化知识产权保护
在讨论对AI进行治理时,我们尤其不应忘记借助AI本身的力量,如OpenAI使用Moderation API,来警告或阻止ChatGPT某些类型的不安全内容。
如果仅就ChatGPT这一应用本身而言,作为以自然语言进行人机交互的窗口,目前交互的方式仅为文本,且无法提供信息来源、参考资料或是注释以供访问或核实,因而应用场景较为受限。但其背后的核心技术GPT-3.5(Generative Pre-trained Transformer-3.5)作为一种大型语言模型(Large language model),利用了能够模仿人类认知注意力的人工神经网络技术,并基于体量庞大、多样化的无标注语料库进行深度学习,能够评估数据各部分重要性并分配不同权重,从而更好地进行自然语言处理。
基于上述能力,不难想象在获得恰当大数据集的专门训练时,GPT-3.5及其衍生模型必然能够在UGC、AIGC等内容井喷般涌现的情况下,为更准确地识别、定位侵权行为提供强大助力,可更好地促进知识产权保护。
比如,在著作权领域早已有YouTube等平台开发出诸如Content ID等侵权内容识别系统,通过建立版权作品数据库,在平台上对所有用户上传内容进行“相似度衡量(Similarity measure)”,并让著作权人选择如何处理识别出的内容,如直接屏蔽、插入广告变现或进行流量追踪等。但是,目前已有的过滤机制仍有其较难越过的难题:(1)监测范围有限:大多监测工具的使用仅限于平台内部;(2)监测能力有限:许多侵权内容采取左右翻转、部分放大、插入图标等方式即可避开审查;(3)侵权行为的正外部性:在互联网用户侵权使用形式多样,部分侵权行为反而能够为原作品引流的情况下,版权人可能需要花费更多精力来识别哪些侵权内容应该屏蔽,哪些应予保留。
而经过侵权识别任务专门训练的GPT-3.5等大型语言模型,可能使知识产权保护的操作模式产生革命性变化。模型可以从对包含了大量不同法域的侵权实例、法院判例、法律法规及相关解释等语料的数据库的深度学习中,系统地形成对侵权行为的概念及理解。在其辅助下,侵权内容识别系统更有可能在机械性地比对是否“相同”之外,更加场景化、个性化地提取受保护作品的性质、架构、要旨乃至整体画面风格,进而在被检索内容中更精准、全面地提取相应特征,并定义侵权作品的使用方式、使用程度与使用情境,读取销量、评论,以总结趋势与受众评价,从而帮助权利人在海量的侵权行为中,准确定位出最需要处理的那些,并对最为匹配的处理手段给出建议。
2.法律:公共领域及用户权益被挤占引发法律变革?
当权利人的行权工具伴随GPT-3.5等模型被不断优化时,也可能导致其与公共领域、用户权利之间原有的平衡被破坏,推动知识产权法在科技浪潮的不断拍打下产生变革。
一方面,大量生成的AIGC挤占可用创意资源。尽管在目前看来,我们很难想象OpenAI利用ChatGPT生成的内容,向用户进行维权。但在现有法律框架下,越来越脱离“人格烙印”本源的著作权,并不排除GPT-3.5等模型生成的庞大体量的各类作品获得著作权保护的可能。不排除资本在可得利益的诱惑下,这将导致不少原本可由用户自由使用的内容,被批量“加工”至AIGC中接受著作权数十年的保护,或利用商标注册制度,进一步压缩可用的标识资源。
另一方面,权利人可能在模型的协助下挤占用户权益。正如近期,Netflix和爱奇艺视频平台都开始利用限制IP地址或登录设备数量等手段,谋求更多付费用户。在技术的辅助下,著作权人已开始通过看似合理的“条款”,将用户可使用的范围限制为“同一IP地址”或“三台设备”。在不久的未来,在GPT-3.5等模型的支持下,相关技术是否会被用于协助内容平台理解用户的使用偏好、习惯、频率,以更加精细化地识别影响其利润的用户正常使用行为?物质载体的“消失”,可能使用户的使用权被进一步降维成一种可被模型监督、条款限制的许可。
GPT-3.5等模型可能带来的权利人与用户之间力量对比的变化,无疑将推动目前偏向权利人保护的知识产权法天平,逐渐偏向保护创意资源、维护用户权益的一端。
3.法律人:我们会被替代吗?
在ChatGPT刷屏的背后,我们从社交媒体上可以清楚的感知一种情绪的变化:人群从一开始单纯的惊喜、赞叹,迅速叠加上一种以“取代”“吓人”“抢饭碗”为主导的复杂情感。这种被恐惧包裹的赞美,是对未来不确定性的集体真实反应,更引爆了对ChatGPT在各领域可能应用场景的讨论与畅想。
从无数法律人与ChatGPT的对话中可以看到, ChatGPT可以对于有客观信源的问题对答如流(毕竟对于掌握了千亿量级的参数且不会遗忘的Ta来说,这类似于开卷考试),这无疑将使知产人目前头痛的商标领域的撤销通用名称、知名度及相关公众认知的举证,或是专利领域的现有技术检索、公知常识及本领域技术人员认知的举证等问题变得易如反掌。
但我们应当自信地说,法律人不会被取代。
在法律领域,最难的永远不是给出唯一确定的答案,而是在具有灰度的事实中分辨出细微的差别,进行的抽象分析与判断,厘清逻辑、找出新的方法。就像利用ChatGPT生成裁判论据的法官,将关键的思考、决定掌握在人类手中,仅将模型作为提升效率的工具。
从更大的范围上看,搁置自动化决策与人类的自主决策孰优孰劣的问题,只要人类在“智能”之外,仍然具有能够体验情感的生物性,而模型的形成仍仅能基于过往的数据时,那么仍将只有能够共情的人类,才能感知建立精神维度的真实交互,体悟并挖掘客户的真实需求;仍将只有能够在历史与上下文之外进行创造性思维的人类,才能基于过去创造未来。