python - Fastai - 在句子处理器,cache_dir 参数中启动语言模型失败
问题描述
我已经浏览网页几个小时来为我找到解决方案,我相信这可能是一个非常小的问题。
我在语言模型启动的最初步骤中使用了 fastai 的句子处理器 (SPProcesor)。
我的这些步骤的代码如下所示:
bs = 48
processor = SPProcessor(lang='pl')
data_lm = (TextList.from_csv('', target_corpus, processor=processor)
.split_by_rand_pct(0.1)
.label_for_lm()
.databunch(bs=bs)
)
data_lm.save(data_lm_file)
执行后我得到一个错误,如下所示:
~/x/miniconda3/envs/fastai/lib/python3.6/site-packages/fastai/text/data.py in process(self, ds)
466 self.sp_model,self.sp_vocab = cache_dir/'spm.model',cache_dir/'spm.vocab'
467 if not getattr(self, 'vocab', False):
--> 468 with open(self.sp_vocab, 'r', encoding=self.enc) as f: self.vocab = Vocab([line.split('\t')[0] for line in f.readlines()])
469 if self.n_cpus <= 1: ds.items = self._encode_batch(ds.items)
470 else:
FileNotFoundError: [Errno 2] No such file or directory: 'tmp/spm/spm.vocab'
上面执行的代码的正确结果应该如下:
创建名为'tmp'的文件夹,
包含文件夹'spm',
其中应放置2个文件,分别命名为:spm.vocab和spm.model。
相反,会在我当前目录中创建“tmp”文件夹以及
名为“cache_dir”.vocab 和“cache_dir”.model 的文件。
找不到文件夹“spm”。
我找到了一种解决方法。
它包括在 'tmp' 中手动创建一个 'spm' 文件夹并将
上面提到的其他 2 个文件移动到其中,并将它们的名称更改为 spm.vocab 和 spm.model。
这使我可以继续我的处理,但我想找到一种方法来跳过
手动移动创建的文件等的必要性。
也许我需要在处理之前传递一些具有特定值的参数(可能是 cache_dir)?
如果您对如何解决该问题有任何想法,请指出我。
我将不胜感激。
解决方案
如果我将 fastai/text/data.py 中的代码切换到此 commit的早期版本,我会看到类似的错误。然后,如果我从同一个提交中应用更改,一切都会很好。现在,同一文件的最新版本(应该帮助处理带空格的路径的文件)似乎在那里引入了另一个错误。
如此看来,问题似乎在于 fastai 试图--model_prefix
用引号给出论点,sentencepiece .SentencePieceTrainer.Train
这使得它“行为不端”。
您的一种可能性是(1)更新到更高版本的 fastai(由于新版本中的另一个错误可能无济于事),或者(2)手动将此处的更改应用于您安装的fastai/text/data.py
. 这是一个非常小的变化 - 只需删除该行:
cache_dir = cache_dir/'spm'
并更换
f'--model_prefix="cache_dir" --vocab_size={vocab_sz} --model_type={model_type}']))
与
f"--model_prefix={cache_dir/'spm'} --vocab_size={vocab_sz} --model_type={model_type}"]))
如果您对更新安装代码不满意,您可以通过train_sentencepiece
在代码中编写固定版本来替换现有功能,然后fastai.text.data.train_sentencepiece = my_fixed_train_sentencepiece
在其他调用之前执行类似操作,从而对模块进行猴子补丁。
因此,如果您使用的是较新版本的库,代码可能如下所示:
import fastai
from fastai.core import PathOrStr
from fastai.text.data import ListRules, get_default_size, quotemark, full_char_coverage_langs
from typing import Collection
def train_sentencepiece(texts:Collection[str], path:PathOrStr, pre_rules: ListRules=None, post_rules:ListRules=None,
vocab_sz:int=None, max_vocab_sz:int=30000, model_type:str='unigram', max_sentence_len:int=20480, lang='en',
char_coverage=None, tmp_dir='tmp', enc='utf8'):
"Train a sentencepiece tokenizer on `texts` and save it in `path/tmp_dir`"
from sentencepiece import SentencePieceTrainer
cache_dir = Path(path)/tmp_dir
os.makedirs(cache_dir, exist_ok=True)
if vocab_sz is None: vocab_sz=get_default_size(texts, max_vocab_sz)
raw_text_path = cache_dir / 'all_text.out'
with open(raw_text_path, 'w', encoding=enc) as f: f.write("\n".join(texts))
spec_tokens = ['\u2581'+s for s in defaults.text_spec_tok]
SentencePieceTrainer.Train(" ".join([
f"--input={quotemark}{raw_text_path}{quotemark} --max_sentence_length={max_sentence_len}",
f"--character_coverage={ifnone(char_coverage, 0.99999 if lang in full_char_coverage_langs else 0.9998)}",
f"--unk_id={len(defaults.text_spec_tok)} --pad_id=-1 --bos_id=-1 --eos_id=-1",
f"--user_defined_symbols={','.join(spec_tokens)}",
f"--model_prefix={cache_dir/'spm'} --vocab_size={vocab_sz} --model_type={model_type}"]))
raw_text_path.unlink()
return cache_dir
fastai.text.data.train_sentencepiece = train_sentencepiece
如果您使用的是旧版本,则如下所示:
import fastai
from fastai.core import PathOrStr
from fastai.text.data import ListRules, get_default_size, full_char_coverage_langs
from typing import Collection
def train_sentencepiece(texts:Collection[str], path:PathOrStr, pre_rules: ListRules=None, post_rules:ListRules=None,
vocab_sz:int=None, max_vocab_sz:int=30000, model_type:str='unigram', max_sentence_len:int=20480, lang='en',
char_coverage=None, tmp_dir='tmp', enc='utf8'):
"Train a sentencepiece tokenizer on `texts` and save it in `path/tmp_dir`"
from sentencepiece import SentencePieceTrainer
cache_dir = Path(path)/tmp_dir
os.makedirs(cache_dir, exist_ok=True)
if vocab_sz is None: vocab_sz=get_default_size(texts, max_vocab_sz)
raw_text_path = cache_dir / 'all_text.out'
with open(raw_text_path, 'w', encoding=enc) as f: f.write("\n".join(texts))
spec_tokens = ['\u2581'+s for s in defaults.text_spec_tok]
SentencePieceTrainer.Train(" ".join([
f"--input={raw_text_path} --max_sentence_length={max_sentence_len}",
f"--character_coverage={ifnone(char_coverage, 0.99999 if lang in full_char_coverage_langs else 0.9998)}",
f"--unk_id={len(defaults.text_spec_tok)} --pad_id=-1 --bos_id=-1 --eos_id=-1",
f"--user_defined_symbols={','.join(spec_tokens)}",
f"--model_prefix={cache_dir/'spm'} --vocab_size={vocab_sz} --model_type={model_type}"]))
raw_text_path.unlink()
return cache_dir
fastai.text.data.train_sentencepiece = train_sentencepiece
推荐阅读
- apache-spark - MicroBatchExecution Spark 结构化流与 Kafka 2.4.0
- java - 为什么 Spark 数据帧缓存在这里不起作用
- java - 如何在 RTP 序列中包含所有 AudioFormat?
- jquery - 将自定义类插入到由 tinyMCE 通过 jQuery 呈现的 WYSIWIG 输出中(在 Wordpress 中处理带有标题的图像)
- excel - 如何在整个数据中重复代码?
- rest - 微服务中的循环api调用
- javascript - JavaScript 上的下拉验证和组合 If 语句是否带有额外的验证条件?
- mysql - 我无法使用选择查询插入列
- javascript - 滚动时更改导航的背景
- javascript - 反应中的样式不可见?