身边一些不太关心科技领域的朋友也纷纷开始尝试和 ChatGPT 对话,赞叹程序越来越像人,能给出不那么程式化的回应。程序在变得像人,反过来程序有没有也在塑造人——让人更像程序?当然这个话题不算新鲜,我只是拾人牙慧接着说几句。
前阵子咖啡馆里有不少客人小声交谈:「这么破的装修怎么拍照啊?」「妳懂什么,妳没看 XXX 的小红书吗,很出片。」那位提出质疑的客人屈从了程序——程序算法告诉她,这个地方是时下热门,这个风格就是美,于是她接受了,然后再次推波助澜,协助程序去收服另一个「异见者」。想起前几天看到另一个例子,Twitter 上有人发照片感慨我们生活中的颜色越来越少了。过去的停车场里有五颜六色的汽车,过去的卧室也有更多色彩,而如今,生活中常见的颜色似乎主要就是黑和白,或者少数几个也不那么鲜艳的颜色。原因肯定不是单一的,但是其中一定有广告和算法的功劳,程序在告诉人们应该喜欢什么颜色。人们在被塑造,这几乎无法避免,但是如果这种塑造只是让人们的生活越来越单调和整齐划一……这让我想到冷冰冰的机器。
一条新闻标题写道:研究人员警告说,当人工智能在人工智能生成的内容上进行训练时,会出现「模型崩溃」。坦白说我没有阅读全文,只是望文生义地联想,如果人类也一味地接受算法的推荐,被程序生成的内容「训练」,是不是也会「模型崩溃」?