特别值得关注的是,《规定》第24条规定算法备案制度★■◆◆★,要求算法推荐服务提供者提供算法类型、算法自评估报告、拟公示内容等信息。科技活动风险控制首推风险评估与实验数据记录。如果算法活动缺乏风险评估,则使得风险无法从源头控制;如果算法设计和检验缺乏记录,则监管机构无法进行有效地评估、追溯和验证复杂算法。备案制度一定意义上倒逼算法推荐服务提供者积极进行风险评估和全流程记录■◆,既能督促运营者在整个算法活动阶段考虑算法合规问题,也有助于帮助执法机关监督算法活动。
同时,《规定》第17条第3款还规定:“算法推荐服务提供者应用算法对用户权益造成重大影响的,应当依法予以说明并承担相应责任。”比如,在动态定价当中★■■★,如果推荐给用户的价格偏高,可能构成对用户权益的重大影响。用户可以要求算法推荐服务提供者给予说明■★◆■■。如果构成侵犯民事权益的◆★■◆,算法推荐服务提供者应根据法律规定承担相应责任。
2022年3月1日,国家互联网信息办公室★■★★■■、工业和信息化部、公安部、市场监管总局联合发布的《互联网信息服务算法推荐管理规定》(下文简称《规定》)正式施行。在大数据经济时代■■◆★,算法是个人信息处理者收集和处理数据、推送信息、调配资源的核心力量◆◆★。算法一旦失范,将给国家利益、社会公共利益和公民合法权益带来严重威胁。因此,《规定》的施行具有鲜明的时代意义和现实需求。
算法是计算机的核心运行逻辑,是一套基于设计目的的数据处理指令的总和■■★,在底层上体现出专业科技的特点。算法也是一门赋能技术◆■,应用场景为赋能领域■◆★,当算法应用到具体的商业模式当中,就会产生应用型风险。算法关系就是这样一种“方式”与“领域”的叠加关系或结合关系◆■◆◆★◆。因此,算法规范不能不谈“方式■■■◆★”,算法的设计、测试、评估属于科技活动,“算法黑箱”、“算法霸权”部分是因科技活动本身的不规范所致◆■;算法规范也不能只谈“方式”■◆◆◆,因为正是算法层出不穷的应用场景★◆,使得算法现实地影响我们的权益,影响人的自由发展。《规定》充分把握了算法的内生性风险和应用型风险,有针对性地设计风险防范规则。
《规定》第17条第1款规定:★★■◆■★“算法推荐服务提供者应当向用户提供不针对其个人特征的选项,或者向用户提供便捷的关闭算法推荐服务的选项。用户选择关闭算法推荐服务的,算法推荐服务提供者应当立即停止提供相关服务★◆★★。”相较于《个人信息保护法》第24条第2款的规定◆◆■,本条进一步明确规定了算法应用拒绝权。
此外◆◆★◆◆★,第17条第2款规定:“算法推荐服务提供者应当向用户提供选择或者删除用于算法推荐服务的针对其个人特征的用户标签的功能◆★。”该条规定为我国首创,能够更全面地保护算法相对人的利益★★◆。算法相对人可能并不是要求算法使用人停止推荐服务,而是禁止推定特定类型的服务。通过赋予算法相对人删除标签的权利,能够更全面的满足用户的要求。
在具体规则层面,《规定》也侧重于从技术角度◆■◆,直接规范算法设计和运行★◆★■◆★。例如,第9条第1款要求算法推荐服务提供者建立健全用于识别违法和不良信息的特征库,完善入库标准★◆■★、规则和程序;第10条要求算法推荐服务提供者加强用户模型和用户标签管理■◆★★;第12条鼓励算法推荐服务提供者综合运用内容去重、打散干预等策略,并优化检索◆★◆◆◆★、排序、选择★★、推送、展示等规则的透明度和可解释性等等。
第二,算法应用型风险的治理覆盖了算法运行的全生命周期。算法既是科学技术,也是赋能手段,其除了具备科技固有的风险之外◆■◆★,也因在商业和公共事业领域的嵌入式应用◆★★◆,对源于工业时代立法模式和治理模式不断冲击,引发了诸多治理痛点。在应用环节,我们也要贯彻程序性控制■★■★◆■。但算法应用有着不同于算法研发的特殊性:算法应用直接作用于算法相对人。算法应用将影响算法相对人的合法权益——算法针对算法相对人的诉求做出决定。为了解决应用型风险★■■■◆◆,《规定》针对未成年人◆■■◆■、老年人★★◆★、劳动者和大数据杀熟等场景,分别配置相应的行为规则(第19条至第21条)。为了实现自下而上的算法治理,《规定》还通过权利路径,赋予个人对抗算法决策的权利◆◆★★■■。
第一,算法内生性风险的控制重点在算法的设计和运行阶段◆■◆。算法的设计、测试★◆、评估非专业人士不能为之,这种“排他性”表明算法活动是一项专门技术。“算法黑箱”、“算法歧视”等痼疾的产生,部分也源于科技活动本身的复杂性■■。因此,对科技活动的规范,需要从科技风险防范的角度设计专门规则◆★。《规定》鼓励使用算法传播正能量★◆■、违法和不良信息,不得设置诱导用户沉迷◆◆、过度消费等有违伦理道德的算法模型■■★◆★■,推动算法向上向善★◆■★。表明了作为科技活动的算法研发不能仅有工具理性,必须具有价值理性。