□邓遵红
《生成式人工智能服务管理暂行办法》(以下简称《办法》)出台的背景是国家对人工智能发展及其风险的高度重视。
【资料图】
《办法》坚持目标导向和问题导向的原则,明确了促进生成式人工智能技术发展的具体措施,规定了生成式人工智能服务的基本规范。具体来说,在使用范围上,只要是在境内向公众提供生成文本、图片、音频、视频等内容的服务,适用本办法。但这里有一个例外,非常重要,就是“行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等研发、应用生成式人工智能技术,未向境内公众提供生成式人工智能服务的,不适用本办法的规定”。当然这个例外还存在如何理解的问题。
在具体规范上,提供和使用生成式人工智能服务者,不能损害国家、社会、群体和个人的安全、利益、声誉和形象,不能弄虚作假或侵犯他人权益而获利:不能有违主流,不得生成危及国家安全、利益和形象的内容;不得生成宣扬恐怖、极端、仇恨、歧视、暴力、淫秽等方面的内容;不得生成虚假有害等法律、行政法规禁止的内容;尊重知识产权、商业道德,保守商业秘密;尊重他人合法权益;基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。
在法律责任方面,《办法》也明确了提供者和使用者对生成内容的监控、对不合法信息的整改责任和义务,以及违法应该承担的法律责任,并赋予了用户举报的权利。《办法》鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管。
对于金融机构来说,《办法》的颁布肯定会影响日益深入的生成式人工智能应用。一方面是挑战,对生成式人工智能的应用应更审慎,要在《办法》划定的边界内“跳舞”,不得有侵害国家、社会、其他机构、客户和社会公众的内容,这对服务人员和技术人员的要求更高了,主体需要有更大的投入。另一方面是机会,《办法》的颁布,说明国家对生成式人工智能服务的重视,确认了生成式人工智能合法发展路径,拨开了前行中的“迷雾”。
概而言之,有几点值得关注。
一是法律法规是规范,是约束,但生成式人工智能服务毕竟是个新生事物,《办法》使用了“鼓励创新”“包容审慎”“分类分级”这些提法,说明了国家对这项创新的鼓励和包容。金融机构应该在合规前提下,加大先行先试的力度。
二是在使用范围界定上,只要不向公众发布生成信息,可以不受《办法》约束。这就给拥有大量数据和较强技术能力的大型金融机构开发内部使用的大语言模型留下了空间。比如,金融机构可以根据自身技术能力,研发具有金融行业和本企业特色的“专有模型”,在辅助自身经营管理的情况下,逐步向营销、服务等外部职能渗透。
三是金融机构在正式使用生成式人工智能服务之前,要建立一整套制度、规则、流程来保证此项服务在合法合规的道路上前进,一旦发现问题,能够及时处理和改进。金融机构既是生成式人工智能的使用者,又是提供者。作为使用者,在选择供应商时要做好过程管理,对供应商的合规能力要有足够审慎的把握;作为提供者,要从需求过程、研发过程和推广过程中严格把关,最好把法律法规的约定变成系统规则,并不断完善,以避免人工检查带来的疏漏。
四是金融机构之间应该加大交流学习,可以在专有(私有)模型的基础上,形成行业(联盟)模型。努力让金融机构成为生成式人工智能技术和应用的高地。既为提高金融行业防风险能力和服务水平作出贡献,又为国家在人工智能领域的发展尽一份行业之力。
五是生成式人工智能的开发和应用是一个创新领域,金融机构要把它作为一个战略事项来安排,要有专业人员、专项投入和较大的风险容忍度来加以保障。
(作者系金融街集团信息总监)