对《生成式人工智能服务管理办法(征求意见稿)》的完善建议
编者按:
生成式人工智能服务的运用与规制并存。我国在法律规制方面已在世界上处于较为领先的地位,并出台《生成式人工智能服务管理办法(征求意见稿)》。本文对该规范文本进行逐条分析,并提出几十条具有现实意义的完善建议,对于相关研究兴趣的朋友们和立法者具有参考价值。
作者简介
高尚,安徽大学法学院副教授。该“征求意见”的建议稿系高尚带领安徽大学法学院2020级《数据法学》课程学习的部分同学一起完成。管婉婷、龙毕云、叶韫琪、陆肖凡4位同学参与了部分文字整理工作。
首先,《生成式人工智能服务管理办法》要明确指导原则。
透明度原则:生成式人工智能的决策过程过程应该透明的和可理解的。
安全原则:生成式人工智能的应用与保障国家、社会、政治与经济的安全相一致。
隐私和个人信息保护原则:生成式人工智能的服务提供过程中应当保护使用者的隐私和个人信息。
防止偏见和歧视原则:多维监管措施对算法歧视和偏见进行风险防控。
以下按条文顺序提出具体建议:
第二条:
规范原文:研发、利用生成式人工智能产品,面向中华人民共和国境内公众提供服务的,适用本办法。
本办法所称生成式人工智能,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。
修改建议:
(1)“公众”一词不是法律概念和法律用语,此处被提供服务的对象应当作广义的解释,包括自然人、法人和其他组织。因此建议将“公众”修改为自然人、法人或其他组织。且该条只强调了提供者的责任,而没有提到使用者的责任,建议后文中增加。
(2)本条对生成式人工智能做了概念界定,而在2023年1月开始施行的《互联网信息服务深度合成管理规定》第二十三条对“深度合成技术”做了概念界定,分析比较两者定义,深度合成技术和生成式人工智能均可通过一定的算法生成文本、图片、声音等内容,因而两部规定的规制对象可能存在一定程度的重叠和混淆,有待进一步澄清。
(3)生成物的其中一个类型为“图片”,在第五条中又表述为“图像”,宜统一表述为“图像”。“代码”本身也是一种“文本”,应当包含在“文本”范畴内,建议删去“代码”,参考WTO的TRIPS协议第10条第1款规定将以源代码或者以目标代码表达的计算机程序作为文字作品保护。此外,在定义中可考虑增加“3D模型”类型。
第三条:
规范原文:国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。
修改建议:
(1)对于“安全可信的软件、工具、计算和数据资源”仅仅只是“鼓励优先采用”,容易导致法律漏洞,可以被理解为并不禁止采用“不安全不可信的软件、工具、计算和数据资源”,增加了不法提供生成式人工智能产品或服务的风险,建议采用“应当”等表述。
(2)本条内容可以进一步完善和细化。“安全可信”界定较为宽泛,建议应明确界定其范围,防止范围不当扩大;明确什么是“安全可信”的软件、工具、计算和数据资源,制定清晰的标准和评估体系。
(3)此外,还应明确特殊情况下,不完全安全可信的软件等使用位阶和范围,比如,通过列举式定义的方式明确警示性使用和禁止性使用的软件、工具、计算和数据资源,或列明禁止性使用的软件、工具、计算和数据资源清单,以增强该条在实践中的可运用性。
第四条:
规范原文:提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,符合以下要求:
(一)利用生成式人工智能生成的内容应当体现社会主义核心价值观,不得含有颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情信息,虚假信息,以及可能扰乱经济秩序和社会秩序的内容。
(二)在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取措施防止出现种族、民族、信仰、国别、地域、性别、年龄、职业等歧视。
(三)尊重知识产权、商业道德,不得利用算法、数据、平台等优势实施不公平竞争。
(四)利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。
(五)尊重他人合法利益,防止伤害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权。禁止非法获取、披露、利用个人信息和隐私、商业秘密。
修改建议:
(1)“体现”社会主义核心价值观念,建议改为“符合”社会主义核心价值观。“体现”带有内容的主动性,生成内容复杂多样,有客观信息,用“符合”更能统摄主客观情形。
(2)第(三)项中“尊重知识产权、商业道德”表述不当,知识产权与商业道德的并列以及尊重商业道德的这一用法不恰当。建议可表述为尊重知识产权,遵守商业道德。另,可进一步着重强调商业道德项下重点内容,如保守商业秘密、抵制欺骗诱导行为等,完善本条规定。
(3)第(四)项中,提到生成式人工智能生成的内容应当“真实准确”,毫无疑问,这条规范意在引导互联网信息更加的真实准确,有利于缓解当下互联网上信息混沌的状况。但是,“真实准确”是否有可实施性?现如今ChatGPT发展迅速,可以解决不少问题,但是因为其尚且不完善或者信息掌握仍然不全面,其真实准确性不可确保。所以,如果法律明确要求互联网信息的真实准确,那么将对类似于ChatGPT产品带来巨大的挑战。此条款对于服务提供者提出了明确的要求,附加了对提供的内容进行实质审查的义务,要求标准过高。实践中,甚至对于更为基础的人工智能应用如搜索引擎都无法保证内容的真实和准确,更不用说对于生成式人工智能(AIGC)这种高阶的模拟创造性的技术,该条要求不利于保护技术创新的积极性。因此,建议增加服务提供者免责豁免条款,明确服务提供者采取措施到达何种程度才能尽到最大注意义务并依此免责。此外,生成式人工智能创作的文章、图片、视频等本身即可能属于“不真实内容”,若要求利用人工智能生成的内容非“虚假信息”,则违背生成式人工智能技术意义。
(4)对于“虚假信息”的来源应进一步明确分类,如果是使用者的恶意引导致使AI因为技术的局限性难以避免的产生虚假信息,此种情况不应规制服务提供者。
(5)对第四条该款可拟再增加内容:“对于可能出错或者误导的,生成式人工智能对生成的内容应当标识,以便于用户识别”。我们应以积极乐观发展的眼光看待此事件,相信在技术的不断进步下,互联网信息的真实准确性将会得到极大确保。
(6)第四条第(五)项为完全列举,禁止的行为方式限于“非法获取”“披露”和“利用”,行为对象为“个人信息”“隐私”和“商业秘密”。然而无论是《个人信息保护法》(第十条)还是《刑法》(第二百五十三条)均有关于禁止非法提供个人信息的规定,《反不正当竞争法》第十条亦规定了禁止经营者向他人披露商业秘密的行为。因此,建议将“提供”行为纳入禁止行为范围中,以更加全面周延地规制提供者的不正当行为,同时能够保持与其他法律的有效衔接。此外,《反不正当竞争法修改意见稿》中新增了对“商业数据”的保护规定,该规定是对数字经济领域不正当竞争行为的及时回应。在数字经济高速发展的今天,“数据”对于互联网企业优化自身服务、确定未来发展战略发挥着“航向标”的作用,其重要性不亚于商业秘密。故建议将“商业数据”也列入行为对象内,以保持与《反不正当竞争法》的同步更新。因此,改为:“禁止非法提供、获取、披露、利用个人信息和隐私、商业秘密、商业数据。”
(7)基于我国法律体系的统一性、法律用语的和谐,第四条第一款第三项的“不公平竞争”应当改为“不正当竞争”。
第五条:
规范原文:利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。
修改建议:
(1)规定“承担该产品生成内容生产者的责任”,并没有明确生成式人工智能产品提供者和服务提供者,以及直接运用产品生产内容的用户之间的责任划分,而让提供者承担了“产品责任”。应明确“提供者”主体的定义和范围。该条规定的“提供者”为利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人。根据字面含义,提供者可能是运用技术的平台,而不一定是产品的训练和优化者。而第七条中要求提供者对生成式人工智能的训练数据、优化数据的合法性负责,第八条对提供者提出在产品研制中的标注责任,有对主体的定义不明和混淆之嫌。因此,需区分“生成式人工智能的服务提供者”与“生成式人工智能的技术提供者”,明确“提供者”的范围,划分“提供者”与产品研发者、技术服务者、生成内容提供者之间的差别。
除了要求人工智能服务提供者承担产品生成内容生产者的责任或个人信息处理者的责任,还要规定产品研发者、使用者等的责任。由于防范歧视、训练数据集来源合法性等义务的履行需要从算法、模型的训练阶段进行源头控制,在实践中,企业可能倾向于利用自身地位将合规义务以合同安排的形式转嫁到较为弱势的技术研发者而免于法律处罚,建议明确责任主体范围。
生成式人工智能是利用大语言模型和公共、开放数据根据用户输入搜索、生成合成信息,更多承担的是“搬运”和“信息整合”的功能,是内容生产者和需求者之间的纽带,并非传统网络法中的信息内容提供者,这里要求其“提供者”完全承担“生产者”的责任是不太合适的。生产的内容其实是由使用者和AIGC产品提供者来承担责任,相关的责任划分需要进一步明确。
(2)缺少对责任承担的明确的划分规定,将大量的责任交给了生成式人工智能的服务提供者,建议增加责任主体。立法应明确生成式人工智能系统的开发、部署和运行的明确的责任,不仅仅局限于产品研发者的责任,也应注意使用者承担的责任(即使用者应对自己的输入内容承担一定的责任,用户提供的内容一定程度上影响着生成式人工智能的学习),不能使得开发者单一承担当前的科学技术难以预测的风险。
(3)增加责任的减轻或责任免除事由。生成式人工智能生成的内容不同于一般的产品,是算法和用户命令之间交互作用的结果。固然产品生产者和服务提供者可以运用技术筛选和检查,但对于刚刚兴起的技术而言,该规定各项内容都过于严格,不利于生成式人工智能的发展。为保护新兴产品技术的发展,应当明确给予生成式人工智能产品生产者一定的宽限和宽容,例如明确一些类似“避风港”的原则。而“避风港”的原则适用过程中,应当考虑优化“避风港”的原则的适用规则:合理解释“应当知道”的判定标准、明确合格通知书的认定标准、完善错误与恶意通知的救济机制;在“提供者”尽到了技术等方面的义务后,减轻其对生成内容的不当的责任。
对于用户非法引诱生成式人工智能侵权的行为,若仍由“提供者”担责,则必然会使得“提供者”不堪重负。生成式人工智能技术本就处于摸索阶段,不可避免地存在规则漏洞,因此建议明晰“提供者”的责任边界,避免对其苛以过重的责任从而不当限制了其发展创新。
第六条:
规范原文:利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。
修改建议:
(1)算法备案义务不明确。根据《算法推荐管理规定》与《深度合成管理规定》,算法备案义务仅限于具有舆论属性和社会动员能力的特定应用服务提供者。但《(征求意见稿)》仅规定“利用生成式人工智能产品向公众提供服务前”,整体上未提及互联网信息服务,该表述不明确是否所有生成式人工智能服务提供者均应承担算法备案的义务。
(2)内容标识义务不明确。根据《深度合成管理规定》,深度合成服务提供者“标识和显著标识”两类义务,其中显著标识针对特定几类可能导致公众混淆或者误认的信息内容。而《(征求意见稿)》的表述缺乏足够的确定性,建议根据内容进行标识与显著标识的区分。
(3)设立定期的评估制度。《(征求意见稿)》规定了提供服务前的安全评估、算法备案和变更、注销备案手续。对于生成式人工智能这种具有成长性的技术,还应当设立定期的评估制度。
第七条:
规范原文:提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。用于生成式人工智能产品的预训练、优化训练数据,应满足以下要求:
(一)符合《中华人民共和国网络安全法》等法律法规的要求;
(二)不含有侵犯知识产权的内容;
(三)数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形;
(四)能够保证数据的真实性、准确性、客观性、多样性;
(五)国家网信部门关于生成式人工智能服务的其他监管要求。
修改建议:
(1)第四项条款有些严苛。大模型离不开数据的训练,如果对于训练数据作出过于严苛的规定,将严重阻碍大模型的发展速度。数据训练的规模会决定人工智能生成内容的质量,数据的数量和质量比算法和模型更重要。因此,如果由于真实性、客观性等问题无法使用相关的训练数据,将对人工智能技术发展带来很大的负面影响。
(2)第一款建议增加“但不包括人工智能生成内容的合成数据来源”。即“提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责,但不包括人工智能生成内容的合成数据来源”。
用于生成式人工智能产品的预训练、优化训练数据区分为自然数据和合成数据,自然数据包括采集物理世界的个人信息;直接获取的公共数据;通过数据交易方式购买的数据。根据本条所规定的五项要求,可理解本条规定的“预训练数据、优化训练数据”并不包括合成数据来源,而仅指三种来源的自然数据,否则要求提供者对合成数据的真实性、准确性、客观性承担责任,显然是加重了提供者义务。对于由生成式人工智能经训练后以生成内容作为合成数据来源再加工生成新的内容不应苛求提供者仍然对数据来源合法性负责,从技术上也无法实现。
第八条:
规范原文:生成式人工智能产品研制中采用人工标注时,提供者应当制定符合本办法要求,清晰、具体、可操作的标注规则,对标注人员进行必要培训,抽样核验标注内容的正确性。
修改建议:建议将“研制”修改为“研发”,与第二条第一款相统一。
第九条:
规范原文:提供生成式人工智能服务应当按照《中华人民共和国网络安全法》规定,要求用户提供真实身份信息。
修改建议:原文要求用户提供真实身份信息,而在实践中,生成式人工智能产品在某些场景下,比如仅用来做智能搜索服务,应当允许用户在不实名认证条件下使用,如微软在必应搜索引擎中加入ChatGPT,未作实名认证的普通用户均可以浏览使用。
建议规定在特定情形下用户必须提供真实身份信息,而一般情形下允许用户以游客的身份使用。
根据《网络安全法》第二十四条的规定,“网络运营者为用户办理网络接入、域名注册服务,办理固定电话、移动电话等入网手续,或者为用户提供信息发布、即时通讯等服务,在与用户签订协议或者确认提供服务时,应当要求用户提供真实身份信息。用户不提供真实身份信息的,网络运营者不得为其提供相关服务”。生成式人工智能服务本身并不是一种“信息发布”,对话是人与机器之间的输入和输出,并不向公众传播。生成式人工智能服务也不是“即时通讯”,因为这种对话只是人与机器、模型的对话,而不是人与人的对话。生成式人工智能服务,在特定情况下更类似于搜索服务,本质是一种智能检索,应当允许用户以游客的身份使用。比如,必应搜索引擎引入了ChatGPT问答模型,普通游客都可以浏览使用。这样也可以更好保护用户的隐私,方便网民使用。
第十一条:
规范原文:提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务。不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。法律法规另有规定的,从其规定。
修改建议:建议修改为“未经用户明确同意,不得留存能够推断出用户身份的输入信息……”。
第十二条:
规范原文:提供者不得根据用户的种族、国别、性别等进行带有歧视性的内容生成。
修改建议:本条对于禁止歧视性内容生成的规定与第四条第(二)项重复,可直接列入第四条中对于提供者开发产品的要求中的一项,建议删除。
第十三条:
规范原文:提供者应当建立用户投诉接收处理机制,及时处置个人关于更正、删除、屏蔽其个人信息的请求;发现、知悉生成的文本、图片、声音、视频等侵害他人肖像权、名誉权、个人隐私、商业秘密,或者不符合本办法要求时,应当采取措施,停止生成,防止危害持续。
修改建议:
(1)提供者应建立用户投诉接收处理机制,及时处置个人关于更正、删除、屏蔽个人信息的请求。这一规定与《个人信息保护法》第五十条规定的“个人信息处理者应当建立便捷的个人行使权利的申请受理和处理机制”在效用上有异曲同工之处,不同之处在于《个人信息保护法》规定了个人的申请被拒绝时可以向人民法院起诉,而《办法》则未规定提供者不作为时用户能够采取何种救济途径,有权利无救济便可能导致该条规定的目的落空。建议加入“提供者拒绝处理用户的个人投诉的,用户有权向网信部门和有关主管部门举报”。
(2)“个人隐私”建议改为“隐私权”。该条前面的表述“肖像权、名誉权”都有“权”字,隐私权也是法定的具体人格权类型。
第十五条:
规范原文:对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。
修改建议:
(1)譬如,ChatGPT已经上线多月,其中偏门的问题还是不能正确理解、不能正确解答。目前,国内的上线的人工智能仍处于内测阶段,实施的时间太短,暴露的问题太少。因此,要求“在3个月内通过模型优化训练等方式防止再次生成”,期限过短。在人工智能大型模型参数情况下,其生成内容有很多是难以精确预测与控制的,有专家认为在3个月的时间内通过模型优化训练的方式防止再次生成在技术上很难实现。宜先行规定对违规内容应当采取的补救措施,在人工智能发展稳定后有大量实践予以参考后,再确定合理期限。
(2)同时,该条并未明确3个月后仍然出现同样问题的法律后果。3个月是免责期限还是责任加重的条件,立法并不明确。
根据功能、用途等,对于生成式人工智能进行分类,如借鉴欧盟《人工智能民事责任指令》规定,只有高风险的AI应用才承担AI严格责任,根据风险高低承担不同责任。鉴于我国生成式人工智能产品服务尚处研发阶段,这方面的规定不宜过于严苛而阻碍人工智能发展,应多予鼓励、放宽限制,以期提高国际竞争力。
(3)此外,再次生成的内容范围可以加以明确,如防止再次生成同类或具有相同特征的内容。如若模型优化失败,或再次生成情况难以避免,如何进行规制,可进一步明确。
第十七条:
规范原文:提供者应当根据国家网信部门和有关主管部门的要求,提供可以影响用户信任、选择的必要信息,包括预训练和优化训练数据的来源、规模、类型、质量等描述,人工标注规则,人工标注数据的规模和类型,基础算法和技术体系等。
修改建议:明确“必要信息”的范围,包括对“基础算法和技术体系”做出必要的解释,或反向列举的方式排除“非必要信息”。
第十八条:
规范原文:提供者应当指导用户科学认识和理性使用生成式人工智能生成的内容,不利用生成内容损害他人形象、名誉以及其他合法权益,不进行商业炒作、不正当营销。
修改建议:该款的实际操作空间比较有限。这方面的工作应该主要由教育机构、宣传、网信部门和社会通过网络安全和素质教育以及普法活动去完成,提供者可提供必要的协助。另外,这里也涉及到用户恶意使用的问题,譬如有用户会变相引导人工智能生成一些有失偏颇的言论,这种情况下要考虑到用户和服务提供者之间的责任平衡。
第十九条:
规范原文:提供者发现用户利用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,包括从事网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等,应当暂停或者终止服务。
修改建议:用户可以对服务者不正确判断的暂停和终止服务有权提出申诉,服务者应当提供申诉渠道,防止一刀切行为,造成封号等使用不便的情况出现。
第二十条:
规范原文: 提供者违反本办法规定的,由网信部门和有关主管部门按照《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律、行政法规的规定予以处罚。
法律、行政法规没有规定的,由网信部门和有关主管部门依据职责给予警告、通报批评,责令限期改正;拒不改正或者情节严重的,责令暂停或者终止其利用生成式人工智能提供服务,并处一万元以上十万元以下罚款。构成违反治安管理行为的,依法给予治安管理处罚;构成犯罪的,依法追究刑事责任。
修改建议:第二款中对提供者责任设定过于严苛,甚至对于现行法律法规尚未明确规定的情形,也适用责令暂停的做法不符合《行政处罚法》的规定。我国《行政处罚法》第十四条规定:“尚未制定法律、行政法规的,国务院部门规章对违反行政管理秩序的行为,可以设定警告、通报批评或者一定数额罚款的行政处罚”。可见,法律、行政法规未规定的违反管理秩序的行为,最高处罚限度只是警告、通报批评与罚款,但是征求意见稿还规定了“责令暂停或者终止其利用生成式人工智能提供服务”等属于“限制开展生产经营活动、责令停产停业、责令关闭、限制从业”这类的处罚,处罚限度明显高于《行政处罚法》。这对于刚刚起步的生成式人工智能服务产业的后续发展是不友好的,建议责任限度与我国《行政处罚法》保持一致,删去责令暂停或者终止其利用生成式人工智能提供服务,保留罚款。
其他建议:
1.《生成式人工智能服务管理办法》(征求意见)中大部分内容在强调提供者义务与责任,有义务就应当有权利。《办法》中缺少对提供者权益方面内容的规定,建议补充。
2.明确定义服务管理范围和目的。明确人工智能服务的含义;其管理范围的边界、范围、目的;保证服务质量、维护用户权益等。
3.建立监管机制。在服务的全生命周期中建立相应的监管机制,包括服务准入、运行监控、问题处理等等。防止因人工智能法律主体的特殊性似使得公民个人数据及权益受损。
4.确立服务标准。制定统一的服务标准和指南,明确服务的性能要求和技术规范等方面的标准。
5.建议增加生成式人工智能服务向公众履行透明度的义务。
6.建立投诉处理机制。建立投诉处理机制,对于投诉的对象和投诉后无处理后果的后续救济进行规定,及时处理投诉和纠纷,并对违反规定的行为进行惩罚。
7.保障数据安全。要求服务提供者保障用户数据的安全,防止泄露和滥用。
本文于2023.4.15-5.9完成,2023.6.2-6.6修改。
本文责编 ✎ 稻壳豚
专业学习、考研升学、职业探索,请认准“青苗法鸣”旗下“青法在线”公众号。
青苗法鸣文末征稿启事
“青苗法鸣”微信公众号聚焦社会热点讨论与法学学术交流,为了给大家提供更好的分享-交流-争鸣平台,激励更多的青年学人思考和写作。诚请大家惠赐优稿!
一、长期征稿
稿酬等详情信息请见:2023,全年长期征稿启事!赐稿邮箱:qmfmbjb@163.com。
二、建议选题如下:
1.法学院校、学科发展历史及未来
2.法学人才培养模式的反思与提升
3.论文写作与案例分析方法
4.学术研究兴趣探索与养成
5.考博经验及读博感悟
6.地方社会治理实例与法治发展
7.民商法学(含婚姻家庭法)基础性问题与前沿热点研究
8.侵犯人身权利类、妨害社会管理秩序类犯罪的基础性问题及前沿热点研究
9.其他法律部门(经济法、行政法、环境法)法典化研究
10.个人信息保护领域法治问题
11.教义学与社科法学研究方法
12.企业合规与法治化营商环境建设
13.司法改革举措、成效的实证类研究
14.社会普遍关注的热点问题
优质笔记&专业咨询
点击青苗法鸣小程序
推荐阅读
联系我们
长期收稿邮箱:qmfmbjb@163.com
社群交流请添加公共微信:
公共微信1:qmfmggwx
公共微信2:qmfmggwx2
付费咨询与讲座请添加小助手微信:qfxzsggwx
商务合作请添加微信:zfm18132699180