这个东西我觉得是一个统计学问题, 如果从统计建模来说的话:
如果特征明显,给予文字适当的编码,应该可以用简单的 Machine Learning 算法(GLM)解决。
但是就像楼上说的,这个东西法理上不能用来定罪,比如:
ChatGPT 模仿他的文笔生成的这段话
这几个月,俺看到不少读者在评论区热烈讨论【人工智能的伦理问题】。有好几位朋友都建议俺专门写一篇博文谈谈这方面的看法。坦白说,俺之前没有太多这方面的资料,所以一直没有动笔写这类【原创】内容。
最近一段时间,人工智能的发展越来越快,各种关于其伦理问题的讨论也愈发激烈。俺决定借此机会,发一篇《每周转载》,帮助各位看官了解更多相关信息。
先提醒一下:
由于真理部的严格审查,【墙内】媒体很少会报道人工智能的【负面】新闻。所以,如果你只看墙内的媒体,你获取的信息是【非常片面】滴。
为了让读者能看到更加【多样化】的视角,俺汇总了包括【北美、欧洲、澳洲、东亚】等地的多家媒体报道。
因为本文转载的内容较多,俺分成几个部分,大家可以根据自己的兴趣选择阅读。
可以发现这个文笔可以说很相似了,任何人都可以这么干。总不能说模仿文风便定了罪。