javascript - 为什么 Uint8Array.toString('hex') 不返回十六进制?
问题描述
鉴于此(基于另一个答案):
const fromHexString = hexString => new Uint8Array(hexString.match(/.{1,2}/g).map(byte => parseInt(byte, 16)));
console.log(fromHexString('a0e30c9e46d8f973f4082d79fce1fb46b1c199bb047bb3545c85b545f7a1650a').toString('hex'))
//expected "a0e30c9e46d8f973f4082d79fce1fb46b1c199bb047bb3545c85b545f7a1650a"
//get "160,227,12,158,70,216,249,115,244,8,45,121,252,225,251,70,177,193,153,187,4,123,179,84,92,133,181,69,247,161,101,10"
为什么它不以十六进制返回?
编辑,我困惑的根源。我正在使用hypersdk 库。这允许.toString('hex')
模式。
当我切换到烧杯时,我不能再使用它了。
编辑2:
我认为我的困惑是因为我使用的是基于 node.js 的Buffer
对象:https ://nodejs.org/api/buffer.html#buffer_buf_tostring_encoding_start_end
这是使用 hypersdk 浏览器化的,这样缓冲区被表示为一个TypedArray
对象,toString
原型方法被覆盖以匹配Buffer
版本。
解决方案
类型化数组有一个toString
不带参数的方法,因此提供'hex'
给它不会有任何影响,它只会将值连接到以逗号分隔的十进制表示值列表中。
要获得十六进制输出,您需要迭代数组并将每个值转换为十六进制并连接结果:
const fromHexString = hexString => new Uint8Array(hexString.match(/.{1,2}/g).map(byte => parseInt(byte, 16)));
const toHexString = arr => Array.from(arr, i => i.toString(16).padStart(2, "0")).join("");
const arr = fromHexString('a0e30c9e46d8f973f4082d79fce1fb46b1c199bb047bb3545c85b545f7a1650a');
console.log(toHexString(arr));
推荐阅读
- git - 如何在 Github 上新建一个项目,然后从我的电脑推送项目
- javascript - 如何根据用户使用JS的时间将lite模式更改为dark模式?
- r - 如何使用命令重新加载当前的 R 脚本文件?
- android - 缩放离子路由器出口以显示宽度和高度
- sql-server - 带有双标头的透视查询
- reactjs - 如何在子组件中使用 useEffect() 来获取数据?
- java - spring-cloud-starter-zipkin 与 jdbc 冲突?
- c++ - collect2.exe Id 返回 1 退出状态(Dev-c++)
- android - 我收到错误 io.socket.engineio.client.EngineIOException: xhr poll error while connected to server
- html - 如何将引导 CSS 和 JavaScript 隔离到 html 页面的一部分?