首页 > 解决方案 > 如何映射由 get_user_pages_fast 固定的页面以将它们用作驱动程序中的虚拟连续缓冲区?

问题描述

我正在编写一个为用户空间应用程序提供异步通信的 Linux 内核驱动程序。实施工作如下:

以下是代码的基本部分(从我的驱动程序中提取并简化):

struct page ** pages = NULL;
long pinned = 0;
int i;
void * vbuf = NULL;
void * vresp = NULL;

if (!access_ok(VERIFY_WRITE, buffer, max_data_length)) {
   pr_alert("wrong access");
   res = -EFAULT;
   goto error1;
}
const unsigned long offset = ((unsigned long) buffer) & (PAGE_SIZE-1);
    int nr_pages = DIV_ROUND_UP(offset + max_data_length, PAGE_SIZE);
pages = (struct page **) kzalloc(sizeof(struct page)*nr_pages, GFP_KERNEL);
if(!pages) {
    pr_alert("can't alloc pages");
    res = -EFAULT;
    goto1;
}
pinned = get_user_pages_fast(((unsigned long) buffer ) & PAGE_MASK,nr_pages,1,pages);
if(pinned != nr_pages) {
    for(i=0; i<pinned; i++) {
        put_page(pages[i]);
    }
    kfree(pages);
    pr_alert("can't pin pages");
    res = -EFAULT;
    goto error1;
}
vbuf = vmap(pages,nr_pages,VM_MAP, pgprot_writecombine(PAGE_KERNEL));
vresp = vbuf + offset;
if(!vbuf) {
    pr_alert("can't vmap pages");
    res = -EFAULT;
    goto error1;
}

上述代码执行后,使用vresp指针存储接收到的数据。传输后,页面被释放:

int i;
vunmap(vbuf);
for(i=0; i < nr_pages; i++) {
   set_page_dirty(pages[i]);
   put_page(pages[i]);
}
kfree(pages);

原始代码在一些架构中工作,但在多核 ARM 机器上失败。看起来写入指向的缓冲区的数据在用户空间应用程序vresp中不可见。buffer我在代码中添加了控制打印并验证了地址是否正确。使用 vmap 为传递的页面创建连续映射是否get_user_pages_fast正确?也许我应该使用其他标志VM_MAP或其他保护而不是 pgprot_writecombine(PAGE_KERNEL)

标签: linuxmappingdriver

解决方案


今天我找到了答案。实际上,问题与函数prot中的参数有关vmap。它应该设置为PAGE_KERNEL而不是pgprot_writecombine(PAGE_KERNEL)). 在用户空间应用程序中,此内存是通过缓存访问的,因此如果我通过 pgprot_writecombine 创建了缓存部分禁用的映射,则会导致对内存的访问不一致。我已将映射线修改为:

vbuf = vmap(pages,nr_pages,VM_MAP,PAGE_KERNEL);

并且代码即使在多处理器 ARM 上也能正常工作。


推荐阅读