首页 > 解决方案 > 如何使用 lambda 计算文件中的单词数?

问题描述

reduce我正在尝试使用, lambda&readlines以非常规的方式计算文件中的字数:

import functools as ft
f=open("test_file.txt")
words=ft.reduce(lambda a,b:(len(a.split())+len(b.split())),f.readlines())
print(words)

当我尝试拆分整数(索引)时,这会引发属性错误。我如何获得此代码来拆分由返回的可迭代元素f.readlines()并连续添加它们的长度(即,这些行中的单词数)以最终计算文件中的单词总数?

标签: pythonpython-3.xfilelambdafunctools

解决方案


如果您正在尝试获取文件中的字数,f.read()则比f.readlines()因为它消除了逐行求和的需要更有意义。您将整个文件放在一个块中,然后可以使用split不带参数的空格分割。

>>> with open("foo.py") as f:
...     len(f.read().split())
...
1530

如果您真的想使用,则无论如何都readlines更容易避免行的长度(这是对可迭代的非常简洁的归约操作,它消除了令人分心的累加器业务):functools.reducesumsplitsum

>>> with open("foo.py") as f:
...     sum(len(x.split()) for x in f.readlines())
...
1530

使用with上下文管理器是一种很好的做法,这样您的资源就会自动关闭。在所有运算符周围使用空格,以便代码可读。

至于functools.reduce开始工作:它接受一个 lambda,它接受累加器作为其第一个参数,当前元素作为第二个参数。to的第二个参数functools.reduce是一个可迭代的,第三个参数初始化累加器。将其留空,将其设置为可迭代项中第一项的值 - 可能不是您想要的,因为这个想法是使用累加器执行数值求和。

您可以使用

>>> with open("foo.py") as f:
...     ft.reduce(lambda acc, line: len(line.split()) + acc, f.readlines(), 0)
...
1530

但这让我觉得这是一种相当鲁布戈德堡式的解决问题的方法。


推荐阅读