我印象里,现在AI对文本量比较大的数据处理的仍不怎么好,但是网络小说动辄百万字起步。
例如说,我手上有小说的txt,我觉得它的标点符号、分段有些问题,可能还有错别字。但是AI可能只能处理几百上千字的文本,手动分割文本校对工程量太大。
此外,有些小说错误可能很多,但是AI校对很多是指出哪里有问题,而不是直接返回修改后的文本,这又大幅增加了工程量。
我想知道这种情况下如何批量对文本进行校对,并直接返回校对后的文本,而不是修改意见。
特别是是否有免费的方法能实现这一目标。
我见过有个AI网站能自动分割论文、翻译并返回翻译后的论文,但我不怎么了解是怎么做到的。疑似是使用API实现的,但API似乎都要付费。