本站源代码
You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

1183 lines
23KB

  1. // Package jlexer contains a JSON lexer implementation.
  2. //
  3. // It is expected that it is mostly used with generated parser code, so the interface is tuned
  4. // for a parser that knows what kind of data is expected.
  5. package jlexer
  6. import (
  7. "encoding/base64"
  8. "encoding/json"
  9. "errors"
  10. "fmt"
  11. "io"
  12. "strconv"
  13. "unicode"
  14. "unicode/utf16"
  15. "unicode/utf8"
  16. )
  17. // tokenKind determines type of a token.
  18. type tokenKind byte
  19. const (
  20. tokenUndef tokenKind = iota // No token.
  21. tokenDelim // Delimiter: one of '{', '}', '[' or ']'.
  22. tokenString // A string literal, e.g. "abc\u1234"
  23. tokenNumber // Number literal, e.g. 1.5e5
  24. tokenBool // Boolean literal: true or false.
  25. tokenNull // null keyword.
  26. )
  27. // token describes a single token: type, position in the input and value.
  28. type token struct {
  29. kind tokenKind // Type of a token.
  30. boolValue bool // Value if a boolean literal token.
  31. byteValue []byte // Raw value of a token.
  32. delimValue byte
  33. }
  34. // Lexer is a JSON lexer: it iterates over JSON tokens in a byte slice.
  35. type Lexer struct {
  36. Data []byte // Input data given to the lexer.
  37. start int // Start of the current token.
  38. pos int // Current unscanned position in the input stream.
  39. token token // Last scanned token, if token.kind != tokenUndef.
  40. firstElement bool // Whether current element is the first in array or an object.
  41. wantSep byte // A comma or a colon character, which need to occur before a token.
  42. UseMultipleErrors bool // If we want to use multiple errors.
  43. fatalError error // Fatal error occurred during lexing. It is usually a syntax error.
  44. multipleErrors []*LexerError // Semantic errors occurred during lexing. Marshalling will be continued after finding this errors.
  45. }
  46. // FetchToken scans the input for the next token.
  47. func (r *Lexer) FetchToken() {
  48. r.token.kind = tokenUndef
  49. r.start = r.pos
  50. // Check if r.Data has r.pos element
  51. // If it doesn't, it mean corrupted input data
  52. if len(r.Data) < r.pos {
  53. r.errParse("Unexpected end of data")
  54. return
  55. }
  56. // Determine the type of a token by skipping whitespace and reading the
  57. // first character.
  58. for _, c := range r.Data[r.pos:] {
  59. switch c {
  60. case ':', ',':
  61. if r.wantSep == c {
  62. r.pos++
  63. r.start++
  64. r.wantSep = 0
  65. } else {
  66. r.errSyntax()
  67. }
  68. case ' ', '\t', '\r', '\n':
  69. r.pos++
  70. r.start++
  71. case '"':
  72. if r.wantSep != 0 {
  73. r.errSyntax()
  74. }
  75. r.token.kind = tokenString
  76. r.fetchString()
  77. return
  78. case '{', '[':
  79. if r.wantSep != 0 {
  80. r.errSyntax()
  81. }
  82. r.firstElement = true
  83. r.token.kind = tokenDelim
  84. r.token.delimValue = r.Data[r.pos]
  85. r.pos++
  86. return
  87. case '}', ']':
  88. if !r.firstElement && (r.wantSep != ',') {
  89. r.errSyntax()
  90. }
  91. r.wantSep = 0
  92. r.token.kind = tokenDelim
  93. r.token.delimValue = r.Data[r.pos]
  94. r.pos++
  95. return
  96. case '0', '1', '2', '3', '4', '5', '6', '7', '8', '9', '-':
  97. if r.wantSep != 0 {
  98. r.errSyntax()
  99. }
  100. r.token.kind = tokenNumber
  101. r.fetchNumber()
  102. return
  103. case 'n':
  104. if r.wantSep != 0 {
  105. r.errSyntax()
  106. }
  107. r.token.kind = tokenNull
  108. r.fetchNull()
  109. return
  110. case 't':
  111. if r.wantSep != 0 {
  112. r.errSyntax()
  113. }
  114. r.token.kind = tokenBool
  115. r.token.boolValue = true
  116. r.fetchTrue()
  117. return
  118. case 'f':
  119. if r.wantSep != 0 {
  120. r.errSyntax()
  121. }
  122. r.token.kind = tokenBool
  123. r.token.boolValue = false
  124. r.fetchFalse()
  125. return
  126. default:
  127. r.errSyntax()
  128. return
  129. }
  130. }
  131. r.fatalError = io.EOF
  132. return
  133. }
  134. // isTokenEnd returns true if the char can follow a non-delimiter token
  135. func isTokenEnd(c byte) bool {
  136. return c == ' ' || c == '\t' || c == '\r' || c == '\n' || c == '[' || c == ']' || c == '{' || c == '}' || c == ',' || c == ':'
  137. }
  138. // fetchNull fetches and checks remaining bytes of null keyword.
  139. func (r *Lexer) fetchNull() {
  140. r.pos += 4
  141. if r.pos > len(r.Data) ||
  142. r.Data[r.pos-3] != 'u' ||
  143. r.Data[r.pos-2] != 'l' ||
  144. r.Data[r.pos-1] != 'l' ||
  145. (r.pos != len(r.Data) && !isTokenEnd(r.Data[r.pos])) {
  146. r.pos -= 4
  147. r.errSyntax()
  148. }
  149. }
  150. // fetchTrue fetches and checks remaining bytes of true keyword.
  151. func (r *Lexer) fetchTrue() {
  152. r.pos += 4
  153. if r.pos > len(r.Data) ||
  154. r.Data[r.pos-3] != 'r' ||
  155. r.Data[r.pos-2] != 'u' ||
  156. r.Data[r.pos-1] != 'e' ||
  157. (r.pos != len(r.Data) && !isTokenEnd(r.Data[r.pos])) {
  158. r.pos -= 4
  159. r.errSyntax()
  160. }
  161. }
  162. // fetchFalse fetches and checks remaining bytes of false keyword.
  163. func (r *Lexer) fetchFalse() {
  164. r.pos += 5
  165. if r.pos > len(r.Data) ||
  166. r.Data[r.pos-4] != 'a' ||
  167. r.Data[r.pos-3] != 'l' ||
  168. r.Data[r.pos-2] != 's' ||
  169. r.Data[r.pos-1] != 'e' ||
  170. (r.pos != len(r.Data) && !isTokenEnd(r.Data[r.pos])) {
  171. r.pos -= 5
  172. r.errSyntax()
  173. }
  174. }
  175. // fetchNumber scans a number literal token.
  176. func (r *Lexer) fetchNumber() {
  177. hasE := false
  178. afterE := false
  179. hasDot := false
  180. r.pos++
  181. for i, c := range r.Data[r.pos:] {
  182. switch {
  183. case c >= '0' && c <= '9':
  184. afterE = false
  185. case c == '.' && !hasDot:
  186. hasDot = true
  187. case (c == 'e' || c == 'E') && !hasE:
  188. hasE = true
  189. hasDot = true
  190. afterE = true
  191. case (c == '+' || c == '-') && afterE:
  192. afterE = false
  193. default:
  194. r.pos += i
  195. if !isTokenEnd(c) {
  196. r.errSyntax()
  197. } else {
  198. r.token.byteValue = r.Data[r.start:r.pos]
  199. }
  200. return
  201. }
  202. }
  203. r.pos = len(r.Data)
  204. r.token.byteValue = r.Data[r.start:]
  205. }
  206. // findStringLen tries to scan into the string literal for ending quote char to determine required size.
  207. // The size will be exact if no escapes are present and may be inexact if there are escaped chars.
  208. func findStringLen(data []byte) (isValid, hasEscapes bool, length int) {
  209. delta := 0
  210. for i := 0; i < len(data); i++ {
  211. switch data[i] {
  212. case '\\':
  213. i++
  214. delta++
  215. if i < len(data) && data[i] == 'u' {
  216. delta++
  217. }
  218. case '"':
  219. return true, (delta > 0), (i - delta)
  220. }
  221. }
  222. return false, false, len(data)
  223. }
  224. // getu4 decodes \uXXXX from the beginning of s, returning the hex value,
  225. // or it returns -1.
  226. func getu4(s []byte) rune {
  227. if len(s) < 6 || s[0] != '\\' || s[1] != 'u' {
  228. return -1
  229. }
  230. var val rune
  231. for i := 2; i < len(s) && i < 6; i++ {
  232. var v byte
  233. c := s[i]
  234. switch c {
  235. case '0', '1', '2', '3', '4', '5', '6', '7', '8', '9':
  236. v = c - '0'
  237. case 'a', 'b', 'c', 'd', 'e', 'f':
  238. v = c - 'a' + 10
  239. case 'A', 'B', 'C', 'D', 'E', 'F':
  240. v = c - 'A' + 10
  241. default:
  242. return -1
  243. }
  244. val <<= 4
  245. val |= rune(v)
  246. }
  247. return val
  248. }
  249. // processEscape processes a single escape sequence and returns number of bytes processed.
  250. func (r *Lexer) processEscape(data []byte) (int, error) {
  251. if len(data) < 2 {
  252. return 0, fmt.Errorf("syntax error at %v", string(data))
  253. }
  254. c := data[1]
  255. switch c {
  256. case '"', '/', '\\':
  257. r.token.byteValue = append(r.token.byteValue, c)
  258. return 2, nil
  259. case 'b':
  260. r.token.byteValue = append(r.token.byteValue, '\b')
  261. return 2, nil
  262. case 'f':
  263. r.token.byteValue = append(r.token.byteValue, '\f')
  264. return 2, nil
  265. case 'n':
  266. r.token.byteValue = append(r.token.byteValue, '\n')
  267. return 2, nil
  268. case 'r':
  269. r.token.byteValue = append(r.token.byteValue, '\r')
  270. return 2, nil
  271. case 't':
  272. r.token.byteValue = append(r.token.byteValue, '\t')
  273. return 2, nil
  274. case 'u':
  275. rr := getu4(data)
  276. if rr < 0 {
  277. return 0, errors.New("syntax error")
  278. }
  279. read := 6
  280. if utf16.IsSurrogate(rr) {
  281. rr1 := getu4(data[read:])
  282. if dec := utf16.DecodeRune(rr, rr1); dec != unicode.ReplacementChar {
  283. read += 6
  284. rr = dec
  285. } else {
  286. rr = unicode.ReplacementChar
  287. }
  288. }
  289. var d [4]byte
  290. s := utf8.EncodeRune(d[:], rr)
  291. r.token.byteValue = append(r.token.byteValue, d[:s]...)
  292. return read, nil
  293. }
  294. return 0, errors.New("syntax error")
  295. }
  296. // fetchString scans a string literal token.
  297. func (r *Lexer) fetchString() {
  298. r.pos++
  299. data := r.Data[r.pos:]
  300. isValid, hasEscapes, length := findStringLen(data)
  301. if !isValid {
  302. r.pos += length
  303. r.errParse("unterminated string literal")
  304. return
  305. }
  306. if !hasEscapes {
  307. r.token.byteValue = data[:length]
  308. r.pos += length + 1
  309. return
  310. }
  311. r.token.byteValue = make([]byte, 0, length)
  312. p := 0
  313. for i := 0; i < len(data); {
  314. switch data[i] {
  315. case '"':
  316. r.pos += i + 1
  317. r.token.byteValue = append(r.token.byteValue, data[p:i]...)
  318. i++
  319. return
  320. case '\\':
  321. r.token.byteValue = append(r.token.byteValue, data[p:i]...)
  322. off, err := r.processEscape(data[i:])
  323. if err != nil {
  324. r.errParse(err.Error())
  325. return
  326. }
  327. i += off
  328. p = i
  329. default:
  330. i++
  331. }
  332. }
  333. r.errParse("unterminated string literal")
  334. }
  335. // scanToken scans the next token if no token is currently available in the lexer.
  336. func (r *Lexer) scanToken() {
  337. if r.token.kind != tokenUndef || r.fatalError != nil {
  338. return
  339. }
  340. r.FetchToken()
  341. }
  342. // consume resets the current token to allow scanning the next one.
  343. func (r *Lexer) consume() {
  344. r.token.kind = tokenUndef
  345. r.token.delimValue = 0
  346. }
  347. // Ok returns true if no error (including io.EOF) was encountered during scanning.
  348. func (r *Lexer) Ok() bool {
  349. return r.fatalError == nil
  350. }
  351. const maxErrorContextLen = 13
  352. func (r *Lexer) errParse(what string) {
  353. if r.fatalError == nil {
  354. var str string
  355. if len(r.Data)-r.pos <= maxErrorContextLen {
  356. str = string(r.Data)
  357. } else {
  358. str = string(r.Data[r.pos:r.pos+maxErrorContextLen-3]) + "..."
  359. }
  360. r.fatalError = &LexerError{
  361. Reason: what,
  362. Offset: r.pos,
  363. Data: str,
  364. }
  365. }
  366. }
  367. func (r *Lexer) errSyntax() {
  368. r.errParse("syntax error")
  369. }
  370. func (r *Lexer) errInvalidToken(expected string) {
  371. if r.fatalError != nil {
  372. return
  373. }
  374. if r.UseMultipleErrors {
  375. r.pos = r.start
  376. r.consume()
  377. r.SkipRecursive()
  378. switch expected {
  379. case "[":
  380. r.token.delimValue = ']'
  381. r.token.kind = tokenDelim
  382. case "{":
  383. r.token.delimValue = '}'
  384. r.token.kind = tokenDelim
  385. }
  386. r.addNonfatalError(&LexerError{
  387. Reason: fmt.Sprintf("expected %s", expected),
  388. Offset: r.start,
  389. Data: string(r.Data[r.start:r.pos]),
  390. })
  391. return
  392. }
  393. var str string
  394. if len(r.token.byteValue) <= maxErrorContextLen {
  395. str = string(r.token.byteValue)
  396. } else {
  397. str = string(r.token.byteValue[:maxErrorContextLen-3]) + "..."
  398. }
  399. r.fatalError = &LexerError{
  400. Reason: fmt.Sprintf("expected %s", expected),
  401. Offset: r.pos,
  402. Data: str,
  403. }
  404. }
  405. func (r *Lexer) GetPos() int {
  406. return r.pos
  407. }
  408. // Delim consumes a token and verifies that it is the given delimiter.
  409. func (r *Lexer) Delim(c byte) {
  410. if r.token.kind == tokenUndef && r.Ok() {
  411. r.FetchToken()
  412. }
  413. if !r.Ok() || r.token.delimValue != c {
  414. r.consume() // errInvalidToken can change token if UseMultipleErrors is enabled.
  415. r.errInvalidToken(string([]byte{c}))
  416. } else {
  417. r.consume()
  418. }
  419. }
  420. // IsDelim returns true if there was no scanning error and next token is the given delimiter.
  421. func (r *Lexer) IsDelim(c byte) bool {
  422. if r.token.kind == tokenUndef && r.Ok() {
  423. r.FetchToken()
  424. }
  425. return !r.Ok() || r.token.delimValue == c
  426. }
  427. // Null verifies that the next token is null and consumes it.
  428. func (r *Lexer) Null() {
  429. if r.token.kind == tokenUndef && r.Ok() {
  430. r.FetchToken()
  431. }
  432. if !r.Ok() || r.token.kind != tokenNull {
  433. r.errInvalidToken("null")
  434. }
  435. r.consume()
  436. }
  437. // IsNull returns true if the next token is a null keyword.
  438. func (r *Lexer) IsNull() bool {
  439. if r.token.kind == tokenUndef && r.Ok() {
  440. r.FetchToken()
  441. }
  442. return r.Ok() && r.token.kind == tokenNull
  443. }
  444. // Skip skips a single token.
  445. func (r *Lexer) Skip() {
  446. if r.token.kind == tokenUndef && r.Ok() {
  447. r.FetchToken()
  448. }
  449. r.consume()
  450. }
  451. // SkipRecursive skips next array or object completely, or just skips a single token if not
  452. // an array/object.
  453. //
  454. // Note: no syntax validation is performed on the skipped data.
  455. func (r *Lexer) SkipRecursive() {
  456. r.scanToken()
  457. var start, end byte
  458. switch r.token.delimValue {
  459. case '{':
  460. start, end = '{', '}'
  461. case '[':
  462. start, end = '[', ']'
  463. default:
  464. r.consume()
  465. return
  466. }
  467. r.consume()
  468. level := 1
  469. inQuotes := false
  470. wasEscape := false
  471. for i, c := range r.Data[r.pos:] {
  472. switch {
  473. case c == start && !inQuotes:
  474. level++
  475. case c == end && !inQuotes:
  476. level--
  477. if level == 0 {
  478. r.pos += i + 1
  479. return
  480. }
  481. case c == '\\' && inQuotes:
  482. wasEscape = !wasEscape
  483. continue
  484. case c == '"' && inQuotes:
  485. inQuotes = wasEscape
  486. case c == '"':
  487. inQuotes = true
  488. }
  489. wasEscape = false
  490. }
  491. r.pos = len(r.Data)
  492. r.fatalError = &LexerError{
  493. Reason: "EOF reached while skipping array/object or token",
  494. Offset: r.pos,
  495. Data: string(r.Data[r.pos:]),
  496. }
  497. }
  498. // Raw fetches the next item recursively as a data slice
  499. func (r *Lexer) Raw() []byte {
  500. r.SkipRecursive()
  501. if !r.Ok() {
  502. return nil
  503. }
  504. return r.Data[r.start:r.pos]
  505. }
  506. // IsStart returns whether the lexer is positioned at the start
  507. // of an input string.
  508. func (r *Lexer) IsStart() bool {
  509. return r.pos == 0
  510. }
  511. // Consumed reads all remaining bytes from the input, publishing an error if
  512. // there is anything but whitespace remaining.
  513. func (r *Lexer) Consumed() {
  514. if r.pos > len(r.Data) || !r.Ok() {
  515. return
  516. }
  517. for _, c := range r.Data[r.pos:] {
  518. if c != ' ' && c != '\t' && c != '\r' && c != '\n' {
  519. r.AddError(&LexerError{
  520. Reason: "invalid character '" + string(c) + "' after top-level value",
  521. Offset: r.pos,
  522. Data: string(r.Data[r.pos:]),
  523. })
  524. return
  525. }
  526. r.pos++
  527. r.start++
  528. }
  529. }
  530. func (r *Lexer) unsafeString() (string, []byte) {
  531. if r.token.kind == tokenUndef && r.Ok() {
  532. r.FetchToken()
  533. }
  534. if !r.Ok() || r.token.kind != tokenString {
  535. r.errInvalidToken("string")
  536. return "", nil
  537. }
  538. bytes := r.token.byteValue
  539. ret := bytesToStr(r.token.byteValue)
  540. r.consume()
  541. return ret, bytes
  542. }
  543. // UnsafeString returns the string value if the token is a string literal.
  544. //
  545. // Warning: returned string may point to the input buffer, so the string should not outlive
  546. // the input buffer. Intended pattern of usage is as an argument to a switch statement.
  547. func (r *Lexer) UnsafeString() string {
  548. ret, _ := r.unsafeString()
  549. return ret
  550. }
  551. // UnsafeBytes returns the byte slice if the token is a string literal.
  552. func (r *Lexer) UnsafeBytes() []byte {
  553. _, ret := r.unsafeString()
  554. return ret
  555. }
  556. // String reads a string literal.
  557. func (r *Lexer) String() string {
  558. if r.token.kind == tokenUndef && r.Ok() {
  559. r.FetchToken()
  560. }
  561. if !r.Ok() || r.token.kind != tokenString {
  562. r.errInvalidToken("string")
  563. return ""
  564. }
  565. ret := string(r.token.byteValue)
  566. r.consume()
  567. return ret
  568. }
  569. // Bytes reads a string literal and base64 decodes it into a byte slice.
  570. func (r *Lexer) Bytes() []byte {
  571. if r.token.kind == tokenUndef && r.Ok() {
  572. r.FetchToken()
  573. }
  574. if !r.Ok() || r.token.kind != tokenString {
  575. r.errInvalidToken("string")
  576. return nil
  577. }
  578. ret := make([]byte, base64.StdEncoding.DecodedLen(len(r.token.byteValue)))
  579. n, err := base64.StdEncoding.Decode(ret, r.token.byteValue)
  580. if err != nil {
  581. r.fatalError = &LexerError{
  582. Reason: err.Error(),
  583. }
  584. return nil
  585. }
  586. r.consume()
  587. return ret[:n]
  588. }
  589. // Bool reads a true or false boolean keyword.
  590. func (r *Lexer) Bool() bool {
  591. if r.token.kind == tokenUndef && r.Ok() {
  592. r.FetchToken()
  593. }
  594. if !r.Ok() || r.token.kind != tokenBool {
  595. r.errInvalidToken("bool")
  596. return false
  597. }
  598. ret := r.token.boolValue
  599. r.consume()
  600. return ret
  601. }
  602. func (r *Lexer) number() string {
  603. if r.token.kind == tokenUndef && r.Ok() {
  604. r.FetchToken()
  605. }
  606. if !r.Ok() || r.token.kind != tokenNumber {
  607. r.errInvalidToken("number")
  608. return ""
  609. }
  610. ret := bytesToStr(r.token.byteValue)
  611. r.consume()
  612. return ret
  613. }
  614. func (r *Lexer) Uint8() uint8 {
  615. s := r.number()
  616. if !r.Ok() {
  617. return 0
  618. }
  619. n, err := strconv.ParseUint(s, 10, 8)
  620. if err != nil {
  621. r.addNonfatalError(&LexerError{
  622. Offset: r.start,
  623. Reason: err.Error(),
  624. Data: s,
  625. })
  626. }
  627. return uint8(n)
  628. }
  629. func (r *Lexer) Uint16() uint16 {
  630. s := r.number()
  631. if !r.Ok() {
  632. return 0
  633. }
  634. n, err := strconv.ParseUint(s, 10, 16)
  635. if err != nil {
  636. r.addNonfatalError(&LexerError{
  637. Offset: r.start,
  638. Reason: err.Error(),
  639. Data: s,
  640. })
  641. }
  642. return uint16(n)
  643. }
  644. func (r *Lexer) Uint32() uint32 {
  645. s := r.number()
  646. if !r.Ok() {
  647. return 0
  648. }
  649. n, err := strconv.ParseUint(s, 10, 32)
  650. if err != nil {
  651. r.addNonfatalError(&LexerError{
  652. Offset: r.start,
  653. Reason: err.Error(),
  654. Data: s,
  655. })
  656. }
  657. return uint32(n)
  658. }
  659. func (r *Lexer) Uint64() uint64 {
  660. s := r.number()
  661. if !r.Ok() {
  662. return 0
  663. }
  664. n, err := strconv.ParseUint(s, 10, 64)
  665. if err != nil {
  666. r.addNonfatalError(&LexerError{
  667. Offset: r.start,
  668. Reason: err.Error(),
  669. Data: s,
  670. })
  671. }
  672. return n
  673. }
  674. func (r *Lexer) Uint() uint {
  675. return uint(r.Uint64())
  676. }
  677. func (r *Lexer) Int8() int8 {
  678. s := r.number()
  679. if !r.Ok() {
  680. return 0
  681. }
  682. n, err := strconv.ParseInt(s, 10, 8)
  683. if err != nil {
  684. r.addNonfatalError(&LexerError{
  685. Offset: r.start,
  686. Reason: err.Error(),
  687. Data: s,
  688. })
  689. }
  690. return int8(n)
  691. }
  692. func (r *Lexer) Int16() int16 {
  693. s := r.number()
  694. if !r.Ok() {
  695. return 0
  696. }
  697. n, err := strconv.ParseInt(s, 10, 16)
  698. if err != nil {
  699. r.addNonfatalError(&LexerError{
  700. Offset: r.start,
  701. Reason: err.Error(),
  702. Data: s,
  703. })
  704. }
  705. return int16(n)
  706. }
  707. func (r *Lexer) Int32() int32 {
  708. s := r.number()
  709. if !r.Ok() {
  710. return 0
  711. }
  712. n, err := strconv.ParseInt(s, 10, 32)
  713. if err != nil {
  714. r.addNonfatalError(&LexerError{
  715. Offset: r.start,
  716. Reason: err.Error(),
  717. Data: s,
  718. })
  719. }
  720. return int32(n)
  721. }
  722. func (r *Lexer) Int64() int64 {
  723. s := r.number()
  724. if !r.Ok() {
  725. return 0
  726. }
  727. n, err := strconv.ParseInt(s, 10, 64)
  728. if err != nil {
  729. r.addNonfatalError(&LexerError{
  730. Offset: r.start,
  731. Reason: err.Error(),
  732. Data: s,
  733. })
  734. }
  735. return n
  736. }
  737. func (r *Lexer) Int() int {
  738. return int(r.Int64())
  739. }
  740. func (r *Lexer) Uint8Str() uint8 {
  741. s, b := r.unsafeString()
  742. if !r.Ok() {
  743. return 0
  744. }
  745. n, err := strconv.ParseUint(s, 10, 8)
  746. if err != nil {
  747. r.addNonfatalError(&LexerError{
  748. Offset: r.start,
  749. Reason: err.Error(),
  750. Data: string(b),
  751. })
  752. }
  753. return uint8(n)
  754. }
  755. func (r *Lexer) Uint16Str() uint16 {
  756. s, b := r.unsafeString()
  757. if !r.Ok() {
  758. return 0
  759. }
  760. n, err := strconv.ParseUint(s, 10, 16)
  761. if err != nil {
  762. r.addNonfatalError(&LexerError{
  763. Offset: r.start,
  764. Reason: err.Error(),
  765. Data: string(b),
  766. })
  767. }
  768. return uint16(n)
  769. }
  770. func (r *Lexer) Uint32Str() uint32 {
  771. s, b := r.unsafeString()
  772. if !r.Ok() {
  773. return 0
  774. }
  775. n, err := strconv.ParseUint(s, 10, 32)
  776. if err != nil {
  777. r.addNonfatalError(&LexerError{
  778. Offset: r.start,
  779. Reason: err.Error(),
  780. Data: string(b),
  781. })
  782. }
  783. return uint32(n)
  784. }
  785. func (r *Lexer) Uint64Str() uint64 {
  786. s, b := r.unsafeString()
  787. if !r.Ok() {
  788. return 0
  789. }
  790. n, err := strconv.ParseUint(s, 10, 64)
  791. if err != nil {
  792. r.addNonfatalError(&LexerError{
  793. Offset: r.start,
  794. Reason: err.Error(),
  795. Data: string(b),
  796. })
  797. }
  798. return n
  799. }
  800. func (r *Lexer) UintStr() uint {
  801. return uint(r.Uint64Str())
  802. }
  803. func (r *Lexer) UintptrStr() uintptr {
  804. return uintptr(r.Uint64Str())
  805. }
  806. func (r *Lexer) Int8Str() int8 {
  807. s, b := r.unsafeString()
  808. if !r.Ok() {
  809. return 0
  810. }
  811. n, err := strconv.ParseInt(s, 10, 8)
  812. if err != nil {
  813. r.addNonfatalError(&LexerError{
  814. Offset: r.start,
  815. Reason: err.Error(),
  816. Data: string(b),
  817. })
  818. }
  819. return int8(n)
  820. }
  821. func (r *Lexer) Int16Str() int16 {
  822. s, b := r.unsafeString()
  823. if !r.Ok() {
  824. return 0
  825. }
  826. n, err := strconv.ParseInt(s, 10, 16)
  827. if err != nil {
  828. r.addNonfatalError(&LexerError{
  829. Offset: r.start,
  830. Reason: err.Error(),
  831. Data: string(b),
  832. })
  833. }
  834. return int16(n)
  835. }
  836. func (r *Lexer) Int32Str() int32 {
  837. s, b := r.unsafeString()
  838. if !r.Ok() {
  839. return 0
  840. }
  841. n, err := strconv.ParseInt(s, 10, 32)
  842. if err != nil {
  843. r.addNonfatalError(&LexerError{
  844. Offset: r.start,
  845. Reason: err.Error(),
  846. Data: string(b),
  847. })
  848. }
  849. return int32(n)
  850. }
  851. func (r *Lexer) Int64Str() int64 {
  852. s, b := r.unsafeString()
  853. if !r.Ok() {
  854. return 0
  855. }
  856. n, err := strconv.ParseInt(s, 10, 64)
  857. if err != nil {
  858. r.addNonfatalError(&LexerError{
  859. Offset: r.start,
  860. Reason: err.Error(),
  861. Data: string(b),
  862. })
  863. }
  864. return n
  865. }
  866. func (r *Lexer) IntStr() int {
  867. return int(r.Int64Str())
  868. }
  869. func (r *Lexer) Float32() float32 {
  870. s := r.number()
  871. if !r.Ok() {
  872. return 0
  873. }
  874. n, err := strconv.ParseFloat(s, 32)
  875. if err != nil {
  876. r.addNonfatalError(&LexerError{
  877. Offset: r.start,
  878. Reason: err.Error(),
  879. Data: s,
  880. })
  881. }
  882. return float32(n)
  883. }
  884. func (r *Lexer) Float32Str() float32 {
  885. s, b := r.unsafeString()
  886. if !r.Ok() {
  887. return 0
  888. }
  889. n, err := strconv.ParseFloat(s, 32)
  890. if err != nil {
  891. r.addNonfatalError(&LexerError{
  892. Offset: r.start,
  893. Reason: err.Error(),
  894. Data: string(b),
  895. })
  896. }
  897. return float32(n)
  898. }
  899. func (r *Lexer) Float64() float64 {
  900. s := r.number()
  901. if !r.Ok() {
  902. return 0
  903. }
  904. n, err := strconv.ParseFloat(s, 64)
  905. if err != nil {
  906. r.addNonfatalError(&LexerError{
  907. Offset: r.start,
  908. Reason: err.Error(),
  909. Data: s,
  910. })
  911. }
  912. return n
  913. }
  914. func (r *Lexer) Float64Str() float64 {
  915. s, b := r.unsafeString()
  916. if !r.Ok() {
  917. return 0
  918. }
  919. n, err := strconv.ParseFloat(s, 64)
  920. if err != nil {
  921. r.addNonfatalError(&LexerError{
  922. Offset: r.start,
  923. Reason: err.Error(),
  924. Data: string(b),
  925. })
  926. }
  927. return n
  928. }
  929. func (r *Lexer) Error() error {
  930. return r.fatalError
  931. }
  932. func (r *Lexer) AddError(e error) {
  933. if r.fatalError == nil {
  934. r.fatalError = e
  935. }
  936. }
  937. func (r *Lexer) AddNonFatalError(e error) {
  938. r.addNonfatalError(&LexerError{
  939. Offset: r.start,
  940. Data: string(r.Data[r.start:r.pos]),
  941. Reason: e.Error(),
  942. })
  943. }
  944. func (r *Lexer) addNonfatalError(err *LexerError) {
  945. if r.UseMultipleErrors {
  946. // We don't want to add errors with the same offset.
  947. if len(r.multipleErrors) != 0 && r.multipleErrors[len(r.multipleErrors)-1].Offset == err.Offset {
  948. return
  949. }
  950. r.multipleErrors = append(r.multipleErrors, err)
  951. return
  952. }
  953. r.fatalError = err
  954. }
  955. func (r *Lexer) GetNonFatalErrors() []*LexerError {
  956. return r.multipleErrors
  957. }
  958. // JsonNumber fetches and json.Number from 'encoding/json' package.
  959. // Both int, float or string, contains them are valid values
  960. func (r *Lexer) JsonNumber() json.Number {
  961. if r.token.kind == tokenUndef && r.Ok() {
  962. r.FetchToken()
  963. }
  964. if !r.Ok() {
  965. r.errInvalidToken("json.Number")
  966. return json.Number("")
  967. }
  968. switch r.token.kind {
  969. case tokenString:
  970. return json.Number(r.String())
  971. case tokenNumber:
  972. return json.Number(r.Raw())
  973. case tokenNull:
  974. r.Null()
  975. return json.Number("")
  976. default:
  977. r.errSyntax()
  978. return json.Number("")
  979. }
  980. }
  981. // Interface fetches an interface{} analogous to the 'encoding/json' package.
  982. func (r *Lexer) Interface() interface{} {
  983. if r.token.kind == tokenUndef && r.Ok() {
  984. r.FetchToken()
  985. }
  986. if !r.Ok() {
  987. return nil
  988. }
  989. switch r.token.kind {
  990. case tokenString:
  991. return r.String()
  992. case tokenNumber:
  993. return r.Float64()
  994. case tokenBool:
  995. return r.Bool()
  996. case tokenNull:
  997. r.Null()
  998. return nil
  999. }
  1000. if r.token.delimValue == '{' {
  1001. r.consume()
  1002. ret := map[string]interface{}{}
  1003. for !r.IsDelim('}') {
  1004. key := r.String()
  1005. r.WantColon()
  1006. ret[key] = r.Interface()
  1007. r.WantComma()
  1008. }
  1009. r.Delim('}')
  1010. if r.Ok() {
  1011. return ret
  1012. } else {
  1013. return nil
  1014. }
  1015. } else if r.token.delimValue == '[' {
  1016. r.consume()
  1017. ret := []interface{}{}
  1018. for !r.IsDelim(']') {
  1019. ret = append(ret, r.Interface())
  1020. r.WantComma()
  1021. }
  1022. r.Delim(']')
  1023. if r.Ok() {
  1024. return ret
  1025. } else {
  1026. return nil
  1027. }
  1028. }
  1029. r.errSyntax()
  1030. return nil
  1031. }
  1032. // WantComma requires a comma to be present before fetching next token.
  1033. func (r *Lexer) WantComma() {
  1034. r.wantSep = ','
  1035. r.firstElement = false
  1036. }
  1037. // WantColon requires a colon to be present before fetching next token.
  1038. func (r *Lexer) WantColon() {
  1039. r.wantSep = ':'
  1040. r.firstElement = false
  1041. }
上海开阖软件有限公司 沪ICP备12045867号-1