红色中国网

标题: 人工“智能”机器人也有阶级立场吗? [打印本页]

作者: 远航一号    时间: 2023-2-11 11:58:26     标题: 人工“智能”机器人也有阶级立场吗?

本帖最后由 远航一号 于 2023-2-11 12:29 编辑

这是AI 对于不同领导人的态度:


https://mobile.twitter.com/ElaineYuMuMu/status/1624007328977801217


作者: 远航一号    时间: 2023-2-11 11:58:50


作者: 远航一号    时间: 2023-2-11 11:59:56


作者: 远航一号    时间: 2023-2-11 12:00:44


作者: 远航一号    时间: 2023-2-11 12:01:30


作者: 红色游骑兵    时间: 2023-2-11 12:23:40

这个大概可能有两个原因:
1.训练集的问题:之前也发生过有图像识别将黑人识别为大猩猩的问题。神经网络算法没有偏见,会收敛到数据集内的最优解,如果提供数据的人确实是有偏见的,这就可能导致这个最优解带上了一定的偏见或者说政治色彩,那么如此一来那么模型自带自己的政治倾向也情有可原。
2.OpenAI的人为限制:之前OpenAI发布模型的时候估计是考虑到了这一点,怕给出这类的争议答案,为ChatGPT加入了一些人为prompt限制。但这个人为限制似乎不太灵光,可以被用户给出的prompt"催眠",但这种方式不一定能成功,且容易失灵,可能会出现上面的情况,换一种问法也许就可以得出答案了。

以下是本人测试的结果,与推上测试的出入还是不小的。
作者: 王导    时间: 2023-2-11 12:25:52

本帖最后由 王导 于 2023-2-11 12:26 编辑

我试了试发现不是这样的。这个AI无论你问他哪个领导人的好处和功绩,他都会说自己是个机器人,本身没有政治立场,然后给你罗列一堆官方成就。你问他哪个领导人被公众批评的地方,它也能指出某个领导人做错的事(主流叙事中)。
作者: 远航一号    时间: 2023-2-11 12:28:37

王导 发表于 2023-2-11 12:25
我试了试发现不是这样的。这个AI无论你问他哪个领导人的好处和功绩,他都会说自己是个机器人,本身没有政治 ...

有意思

看来还是需要自己动手实验
作者: 王导    时间: 2023-2-11 12:36:48

以特朗普为例,你询问他的正反面,他都会列举出几大段事迹。
作者: Drascension    时间: 2023-2-11 12:50:49

这得看训练集和参与度量模型建构的人工劳动力的阶级基础了,由于chatGPT是靠人工标注实现度量的,那么如果这两个地方不能实现一碗水端平,显示出所谓的“阶级立场”其实就可以用最简单的“过拟合”去解释了。
作者: wzh    时间: 2023-2-11 16:52:43

怎么说呢,还是看给ai喂什么
或者说看喂的人的阶级立场
作者: wzh    时间: 2023-2-11 16:54:36

之前看到过一个例子
微软的ai被投放到推特上学习
结果不到一天就变成了极右……
作者: 远航一号    时间: 2023-2-11 23:42:49

http://m.wyzxwk.com/content.php?classid=19&id=470143

另一篇评论聊天机器人“政治正确”的文章
作者: xmx    时间: 2023-2-12 20:29:03

chatGPT就是chatGPT,有阶级立场的是提问者




欢迎光临 红色中国网 (http://redchinacn.net/) Powered by Discuz! X2