个性化推荐算法(个性化推荐“算法”变“算计
如今,手机上的App会“读心”早已不是秘密了。你想看的资讯、想买的东西的相关信息会源源不断地推荐给你。
▲在算法推荐的影响下,不同手机上同一款APP呈现的内容差异化很大(图片来源:视觉中国)
这其实就是基于一种叫“算法”的技术,为用户提供的个性化内容推荐服务。很多人都已习惯于这项技术带来的便利,但另一方面它也造成用户个人信息被大规模搜集,带来“诱导沉迷”“大数据杀熟”“拉人头助力砍价”等乱象。
为了规范这类技术应用,2022年3月1日开始实施的《互联网信息服务算法推荐管理规定》中明确,算法推荐服务提供者应当以显著方式告知用户其提供算法推荐服务的情况;向用户提供不针对其个人特征的选项,或者向用户提供便捷的关闭算法推荐服务的选项。
▲《互联网信息服务算法推荐管理规定》要求互联网平台提高算法推荐透明度。(图片来源:国家网信办网站截图)
据不完全统计,截止目前,微信、抖音、今日头条、淘宝、百度、大众点评、微博、小红书、京东等App均已上线算法关闭键,允许用户在后台一键关闭“个性化推荐”。
什么是算法推荐
对于“算法”虽然还没有一个公认的定义,但计算机科学家哈罗德·斯通在 1971 年编写的教科书里给出了一个普遍的定义:“算法是精确定义一系列操作的一套规则。”很明显,这个定义包罗万象。美国国会在 2019 年引入的 HR2291 或算法责任法案使用了“自动决策系统”一词,将之定义为“机器学习、统计数据或其他数据处理、人工智能技术等得出的计算过程,以此作出决策或帮助人类决策,影响消费者。”
而我们今天主要谈的是算法推荐。这是算法的一种应用,用于推测出用户可能喜欢的东西。算法推荐最早在海外出现应用。1998年,亚马逊平台就上线了基于物品的协同过滤算法(ItemCF算法),算法的使用让亚马逊销售额增长了不止100倍。随后越来越多的企业开始使用算法推荐,并逐渐在业内崭露头角。
在《互联网信息服务算法推荐管理规定》明确,算法推荐是指利用生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等技术向用户提供信息。简单来说,算法推荐技术会通过抓取用户日常的使用数据,分析得出人们的行为、习惯和喜好,进而精准化地进行信息推荐及分发。运用算法推荐技术的核心目的是在提供更精准推荐的同时,留住用户的注意力。
许多企业都在用大数据来向用户进行相关推荐,驱动收入增长。知乎的个性化推送就是预测用户可能喜欢看什么问题和回答;百度的检索过滤就是预测用户可能对哪些搜索结果感兴趣;淘宝的排序精选就是预测用户可能购买哪些商品。这些预测所基于的“过去已经发生过的事件”则是与用户相关的、非常宽广的数据集,不仅包含“用户看过/赞过/收藏过哪些回答”这种直接的用户行为,还包含大量用户本身的属性信息:年龄、性别、地域、教育程度、职业、上网设备、买过什么东西、发过什么言论、住多大房子、家里几口人……这些信息都会被用于预测用户的偏好。
(图片来源:知乎)
算法规则本身具有不透明、不公开、技术门槛高的特性,算法一直被视作互联网企业的“黑箱”,游离于政府监管和公共视野之外,导致算法推荐规则极易被滥用。有网友吐槽说,一些App算法已经延伸到“通讯录、相册,甚至偷偷录音、拍照,上过的网站,搜索记录,人际关系、家庭关系”。
“算法”变“算计”
《中国大安全感知报告(2021)》显示,网络个人隐私是民众当下最为关注的安全问题,七成受访者感到自己被算法“算计”。
对于普通用户而言,算法摸不着也看不懂,却在广泛影响着我们在互联网上的行为。由于互联网平台优化算法主要通过大数据分析算法模型计算出业务经营的更佳策略,对一些实际情况并未考虑或考虑不够,很可能带来了一些恶性应对行为。
1、诱导用户沉迷网络,陷入“信息茧房”
当我们打开今日头条,会明显感觉到只有我们自己关注的才是头条;刷起短视频,会不知不觉被各种内容“投喂”,忍不住“一刷就是几小时”;逛一逛淘宝,推荐的都是曾经购买或浏览过的商品,一不小心就加入了购物车。我们看似有了更多更好的选择,但静下来想想,总感觉被一种无形的力量操控着,而这背后就是算法推荐技术。
传播学理论认为,在信息传播过程中,公众倾向于只注意自己感兴趣的资讯,而资讯平台为了获得更多关注,也倾向于利用算法技术推送量身定做的信息。久而久之,公众会将自身桎梏于像蚕茧一般的“茧房”中,缺少多元化视角,导致思维固化,甚至引发网络过激言论和网络暴力。
(图片来源:视觉中国)
2、“大数据杀熟”实行不合理差别待遇
一些企业利用个人信息搞大数据“杀熟”,对不同群体通过“算法”进行差别定价,实行“价格歧视”,让消费者十分反感。例如,同样的送餐时间、地点、订单、外卖平台,会员却比非会员多付钱;同时同地打同类型车到同一目的地,某打车平台曾被用户发现熟客反而收费更高,类似的消费投诉多有发生。
北京市消费者协会3月1日发布的互联网消费大数据“杀熟”问题调查结果显示,82.37%的受访者认为互联网消费大数据“杀熟”问题普遍存在;在对16个平台进行的32个模拟消费体验样本中,有14个样本新老账户的价格不一致。
3、过度“算计”剥夺劳动者权益
2020年9月,一篇名为《外卖骑手,困在系统里》的文章备受关注。文章描述了在外卖平台系统的算法与数据驱动下,外卖骑手的配送时间不断被压缩,而骑手在强大的系统驱动下,为避免差评、维持收入,不得不在现实中选择逆行、闯红灯等做法。不少外卖骑手表示,几十层的高层楼宇,电梯一等就是十几分钟甚至更长,但这样的客观情况,并没有被“算法系统”考虑进去。
对于这种情况,清华大学人工智能国际治理研究院副院长梁正接受媒体采访时表示,由于机器还在发展阶段,针对一些劳动工作场景,把决定权力交给机器,有很大的潜藏的公平性、可靠性的风险。
让算法“贴心”又“放心”
在短时间内,滥用算法等行为带来的不信任感似乎难以消退。但作为互联网时代的产物,算法技术在便利人们生活、推动数字经济发展等方面也功不可没。
如何解决这类矛盾?中国信息安全研究院副院长左晓栋认为,首先要在治理违法违规收集用户个人信息上下功夫,其次要保障用户的选择权、删除权等权益。例如,要向用户提供不针对其个人特征的选项,或向用户提供便捷的关闭算法推荐服务的选项,并提供选择或删除针对其个人特征的用户标签的功能。
如今,这个开关“千呼万唤始出来”,在国家政策法规的引导下,我们在许多常用App的“设置”页,都应该能找到“关闭个性化推荐”之类的选项。
(图片来自页面截图)
不过,目前大部分 App 的“个性化推荐”关闭键仍然比较隐蔽,一般会在隐私、广告相关的设置选项中找到。值得注意的是,微信、京东等 App 列出了“个人****清单”,告诉消费者收集了哪些信息,以及如何使用这些信息。关闭该键后,应用将不再基于用户的使用行为(包括浏览、搜索、点击、收藏、分享、交易等),IP 地址,设备信息等为用户进行个性化推荐,而更多考虑内容热度等因素。
▲在新版微信中新增了“个人****清单”和“第三方信息共享清单”。(图片来自页面截图)
还有专家建议,要打通用户投诉渠道,若用户对推荐算法有合理怀疑,要有可投诉的部门,这个部门需要具备必要的技术能力,能够解析算法、回应用户。
虽然存在被滥用的情况,但与传统人工推荐相比,算法推荐的优越性不言而喻,算法可能有时候比用户自己更懂用户,所以一关了之也并不可取。已有很多网友吐槽,关闭算法推荐出现有不适应,页面展示的内容变少,很多还不是自己需要的信息。
业内人士认为,通过一系列法规组合拳引导算法合理发展,限制防止信息滥用,避免算法推荐“野蛮生长”,从而达到个人信息保护和数字经济产业发展的双重目标。《互联网信息服务算法推荐管理规定》的正式实施,可能就是一个好的开始。
相关文章:
相关推荐: