源码概述:
16 在运营站群时,经常借助 AI
来生成文章,尤其是在面对庞大的内容产出需求时,AI
几乎成为了不可或缺的工具。毕竟,若仅凭人力,恐怕要写到天荒地老也难以完成。相信许多站长都深有同感,与 16 有着相同的境遇。
然而,AI
撰写的文章往往存在一个通病,那就是逻辑性和片面性。其中,逻辑词的滥用尤为明显,诸如“首先、然后、其次、最后”等关键词频繁出现,一眼就能看出是 AI
的“杰作”。
为了解决这个问题,下面我将分享一个专门用于过滤 AI
关键词的脚本,该脚本采用 P
ython
编写,是纯代码形式,未经编译,因此使用起来更加灵活方便,也便于后续修改和优化。
源码演示截图:
过滤脚本下载
# 汇站网
# https
://www
.huizhanii
.com
/?p
=39443
## 开发时间:2024-04-19
## 功能:AI
词过滤包
## 开发者:16
## 1.过滤 AI
关键词 (函数)
def
filter_sensitive_words
(text
, sensitive_words
):
for
word
in
sensitive_words
:
text
= text
.replace
(word
, '')
return
text
# 要过滤的敏感词列表
sensitive_words
= ["首先,", "其次,","再次,", "然后,", "然而,","当然,","最后,", "总之,", "此外,","其中,","总的来说,","综上所述,","接下来,","#","*"]
# 要过滤的文本内容
# text
= "这是一段包含敏感词 1 和敏感词 2 的文本内容。" ##这里把变量做成你需要过滤的即可,如果你要做成输入过滤就用 input
然后附给 text
即可。
# 过滤敏感词
filtered_text
= filter_sensitive_words
(text
, sensitive_words
)
print
(filtered_text
)
转载请注明:汇站网 » 如何过滤 AI
生成文章中的“AI
痕迹”,使其更自然?- 分享一个脚本代码