和一位算法朋友聊了个有意思的话题:ChatGPT的“价值观”从何而来?
和一位算法朋友聊了个有意思的话题:ChatGPT的“价值观”从何而来? 不知道大家有没有和我一样的感觉。 ChatGPT,有一套很正的价值观:坦诚、客观、尊重每个个体。 如果它是人,是个很值得相处的人。 但是,它毕竟是个算法,价值观从何而来呢? 那位做算法的朋友,正好和开发了ChatGPT的OpenAI团队有过交流。 原来,背后的逻辑是这样的 其实,决定每个算法会训练出什么结果的,主要是三个要素: 素材、算法技术和目标函数。 算法的生产过程,就是机器算法在素材帮助下,对每个问题给出回答。 “目标函数”会评价每个回答的结果“好”还是“不好”。 算法就会不断去改进,直到“好”的结果越来越多。 也就找到了最可能实现“目标函数”的结果。 比如,抖音的推荐算法,其目标函数中最关键的变量,就是“让用户更长时间看抖音”。 于是,算法就会找出最能取悦用户的结果。 抖音的沉迷由此而生。 决定了ChatGPT会不会在表达中有价值观、有怎样价值观的,同样是目标函数。 这个目标函数的主要构成是“人”。 为了评估ChatGPT给出的每个回答“好”还是“不好”。 OpenAI有一个合作了多年的评估者团队。 与国内对地图、文本做标注的评估团队不同。 OpenAI的评估者,不仅仅要掌握评估的技能,还被要求有良好的道德。 这些评估者们需要在面试时接受对自身道德标准的全面考核。 当他们在评估ChatGPT给出的结果时,并不仅仅会看这个结果逻辑上对不对。 还会基于自己的道德标准做出评判。 当然,ChatGPT作为如此复杂的算法,实际的评估过程工作量也是巨大的。 所以OpenAI也开发了另一个算法,模仿评估团队的评估结果。 于是, ChatGPT的道德与价值观,并不来自于任何一个个体。 也不来自于一堆被预先写好的参数。 而是来自于这一群人的道德。 这一群人,就像一个“陪审团”。 陪审团的群体价值观,在算法的放大下,成为了ChatGPT的价值观。
在Telegram中查看相关推荐

🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人