Hive是一个SQL解析引擎,将SQL语句转译成MR Job,然后再Hadoop平台上运行,达到快速开发的目的。 • Hive中的表是纯逻辑表,就只是表的定义等,即表的元数据。本质就是Hadoop的目录/文件,达到了元数据与数据存储分离的目的 • Hive本身不存储数据,它完全依赖HDFS和MapReduce。 • Hive的内容是读多写少,不支持对数据的改写和删除 • Hive中没有定义专门的数据格式,由用户指定,需要指定三个属性: – 列分隔符 – 行分隔符 – 读取文件数据的方法 1. 查询语言。由于 SQL 被广泛的应用在数据仓库中,因此,专门针对 Hive 的特性设计了类 SQL 的查询语言 HQL。熟悉 SQL 开发的开发者可以很方便的使用 Hive 进行开发。
fork: 如果脚本有执行权限的话,path/to/foo.sh。如果没有,sh path/to/foo.sh。 exec: exec path/to/foo.sh source: source path/to/foo.sh fork fork 是最普通的, 就是直接在脚本里面用 path/to/foo.sh 来调用 foo.sh 这个脚本,比如如果是 foo.sh 在当前目录下,就是 ./foo.sh。运行的时候 terminal 会新开一个子 Shell 执行脚本 foo.sh,子 Shell 执行的时候, 父 Shell 还在。子 Shell 执行完毕后返回父 Shell。 子 Shell 从父 Shell 继承环境变量,但是子 Shell 中的环境变量不会带回父 Shell。
multipart/form-data 顾名思义可以上传多个form-data 并且用分隔符进行分割,多用于文件上传 multipart/form-data 请求样例
Golang 使用 JSON unmarshal 数字到 interface{} 数字变成 float64 类型 由于 JSON 里的数字默认都会转成 Golang 的 float64 类型引起的, 使用 Golang 解析 JSON 格式数据时,若以 interface{} 接收数据,则会按照下列规则进行解析: bool, for JSON booleans float64, for JSON numbers
何为basic authentication In the context of a HTTP transaction, basic access authentication is a method for a HTTP user agent to provide a user name and password when making a request.