Bài giảng Nguyên lý ngôn ngữ lập trình - Chương 3: Phân tích từ vựng

Có nhiều công cụ để xây dựng bộ phân tích từ vựng dựa vào các biểu thức chính quy. Lex là một công cụ được sử dụng rộng rãi để tạo bộ phân tích từ vựng. Trước hết đặc tả cho một bộ phân tích từ vựng được chuẩn bị bằng cách tạo ra một chương trình lex.l trong ngôn ngữ lex. Trình biên dịch Lex sẽ dịch lex.l thành một chương trình C là lex.yy.c. Chương trình này bao gồm các đặc tả về sơ đồ dịch được xây dựng từ các biểu thức chính quy của lex.l, kết hợp với các thủ tục chuẩn nhận dạng trị từ vựng. Các hành vi kết hợp với biểu thức chính quy trong lex.l là các đoạn chương trình C được chuyển sang lex.yy.c. Cuối cùng trình biên dịch C sẽ dịch lex.yy.c thành chương trình đối tượng a.out, đó là bộ phân tích từ vựng có thể chuyển dòng nhập thành chuỗi các token.

pdf18 trang | Chia sẻ: huongthu9 | Lượt xem: 542 | Lượt tải: 0download
Bạn đang xem nội dung tài liệu Bài giảng Nguyên lý ngôn ngữ lập trình - Chương 3: Phân tích từ vựng, để tải tài liệu về máy bạn click vào nút DOWNLOAD ở trên
CHƯƠNG III PHÂN TÍCH TỪ VỰNG Nội dung chính: Chương này trình bày các kỹ thuật xác định và cài đặt bộ phân tích từ vựng. Kỹ thuật đơn giản để xây dựng một bộ phân tích từ vựng là xây dựng các lược đồ - automata hữu hạn xác định (Deterministic Finite Automata - DFA) hoặc không xác định (Nondeterministic Finite Automata - NFA) – mô tả cấu trúc của các thẻ từ (token) của ngôn ngữ nguồn và sau đó dịch “thủ công” chúng sang chương trình nhận dạng các token. Một kỹ thuật khác nhằm tạo ra bộ phân tích từ vựng là sử dụng Lex – ngôn ngữ hành động theo mẫu (pattern). Trước tiên, người thiết kế trình biên dịch phải mô tả các mẫu được xác định bằng các biểu thức chính quy, sau đó sử dụng trình biên dịch của Lex để tự động tạo ra một bộ định dạng automata hữu hạn hiệu quả (bộ phân tích từ vựng). Các mô tả và cách thức hoạt động chi tiết của công cụ Lex được trình bày rõ hơn trong phần phụ lục A. Mục tiêu cần đạt: Sau khi học xong chương này, sinh viên phải nắm được các kỹ thuật tạo ra bộ phân tích từ vựng. Cụ thể, • Xây dựng các lược đồ cho các biểu thức chính quy mô tả ngôn ngữ cần được viết trình biên dịch. Sau đó chuyển đổi chúng sang một chương trình phân tích từ vựng. • Sử dụng công cụ có sẵn Lex để sinh ra bộ phân tích từ vựng. Kiến thức cơ bản: Sinh viên phải có các kiến thức về: • DFA và NFA. Các automata hữu hạn xác định và không xác định này được sử dụng để nhận dạng chính xác ngôn ngữ mà các biểu thức chính quy có thể biểu diễn. • Cách chuyển đổi từ NFA sang DFA nhằm làm đơn giản hóa quá trình cài đặt bộ phân tích từ vựng. Tài liệu tham khảo: [1] Automata and Formal Language. An Introduction – Dean Kelley – Prentice Hall, Englewood Cliffs, New Jersey 07632. [2] Compilers : Principles, Technique and Tools - Alfred V.Aho, Jeffrey D.Ullman - Addison - Wesley Publishing Company, 1986. [3] Compiler Design – Reinhard Wilhelm, Dieter Maurer - Addison - Wesley Publishing Company, 1996. [4] Design of Compilers : Techniques of Programming Language Translation - Karen A. Lemone - CRC Press, Inc, 1992. [5] Modern Compiler Implementation in C - Andrew W. Appel - Cambridge University Press, 1997. 48 I. VAI TRÒ CỦA BỘ PHÂN TÍCH TỪ VỰNG Phân tích từ vựng là giai đoạn đầu tiên của mọi trình biên dịch. Nhiệm vụ chủ yếu của nó là đọc các ký hiệu nhập rồi tạo ra một chuỗi các token được sử dụng bởi bộ phân tích cú pháp. Sự tương tác này được thể hiện như hình sau, trong đó bộ phân tích từ vựng được thiết kế như một thủ tục được gọi bởi bộ phân tích cú pháp, trả về một token khi được gọi. Bộ phân tích cú pháp Bộ phân tích từ vựng Bảng ký hiệu Chương trình nguồn token Lấy token kế Hình 3.1 - Giao diện của bộ phân tích từ vựng 1. Các vấn đề của giai đoạn phân tích từ vựng Có nhiều lý do để tách riêng giai đoạn phân tích từ vựng với giai đoạn phân tích cú pháp: 1. Thứ nhất, nó làm cho việc thiết kế đơn giản và dễ hiểu hơn. Chẳng hạn, bộ phân tích cú pháp sẽ không phải xử lý các khoảng trắng hay các lời chú thích nữa vì chúng đã được bộ phân tích từ vựng loại bỏ. 2. Hiệu quả của trình biên dịch cũng sẽ được cải thiện, nhờ vào một số chương trình xử lý chuyên dụng sẽ làm giảm đáng kể thời gian đọc dữ liệu từ chương trình nguồn và nhóm các token. 3. Tính đa tương thích (mang đi dễ dàng) của trình biên dịch cũng được cải thiện. Ðặc tính của bộ ký tự nhập và những khác biệt của từng loại thiết bị có thể được giới hạn trong bước phân tích từ vựng. Dạng biểu diễn của các ký hiệu đặc biệt hoặc là những ký hiệu không chuẩn, chẳng hạn như ký hiệu ( trong Pascal có thể được cô lập trong bộ phân tích từ vựng. 2. Token, mẫu từ vựng và trị từ vựng Khi nói đến bộ phân tích từ vựng, ta sẽ sử dụng các thuật ngữ từ tố (thẻ từ, token), mẫu từ vựng (pattern) và trị từ vựng (lexeme) với nghĩa cụ thể như sau: - Từ tố (token) là các ký hiệu kết thúc trong văn phạm đối với một ngôn ngữ nguồn, chẳng hạn như: từ khóa, danh biểu, toán tử, dấu câu, hằng, chuỗi, ... - Trị từ vựng (lexeme) của một token là một chuỗi ký tự biểu diễn cho token đó. - Mẫu từ vựng (pattern) là qui luật mô tả một tập các trị từ vựng kết hợp với một token nào đó. Một số ví dụ về cách dùng của các thuật ngữ này được trình bày trong bảng sau: 49 Token Trị từ vựng minh họa Mô tả của mẫu từ vựng const const const if if if relation , >, >= hoặc > hoặc >= id pi, count, d2 Mở đầu là chữ cái theo sau là chữ cái, chữ số num 3.1416, 0, 5 Bất kỳ hằng số nào literal “ hello ” Mọi chữ cái nằm giữa “ và “ ngoại trừ “ Hình 3.2 - Các ví dụ về token 3. Thuộc tính của token Khi có nhiều mẫu từ vựng khớp với một trị từ vựng, bộ phân tích từ vựng trong trường hợp này phải cung cấp thêm một số thông tin khác cho các bước biên dịch sau đó. Do đó đối với mỗi token, bộ phân tích từ vựng sẽ đưa thông tin về các token vào các thuộc tính đi kèm của chúng. Các token có ảnh hưởng đến các quyết định phân tích cú pháp; các thuộc tính ảnh hưởng đến việc phiên dịch các thẻ từ. Token kết hợp với thuộc tính của nó tạo thành một bộ . Ví dụ 3.1: Token và giá trị thuộc tính đi kèm của câu lệnh Fortran : E = M * C ** 2 đưọc viết như một dãy các bộ sau: Chú ý rằng một số bộ không cần giá trị thuộc tính, thành phần đầu tiên là đủ để nhận dạng trị từ vựng. 4. Lỗi từ vựng Chỉ một số ít lỗi được phát hiện tại bước phân tích từ vựng, bởi vì bộ phân tích từ vựng có nhiều cách nhìn nhận chương trình nguồn. Ví dụ chuỗi fi được nhìn thấy lần đầu tiên trong một chương trình C với ngữ cảnh : fi ( a == f (x)) ... Bộ phân tích từ vựng không thể biết đây là lỗi không viết đúng từ khóa if hay một danh biểu chưa được khai báo. Vì fi là một danh biểu hợp lệ nên bộ phân tích từ vựng phải trả về một token và để một giai đoạn khác sau đó xác định lỗi. Tuy nhiên, trong một vài tình huống phải khắc phục lỗi để phân tích tiếp. Chiến lược đơn giản nhất là "phương thức hoảng sợ" (panic mode): Các ký tự tiếp theo sẽ được xóa ra khỏi chuỗi nhập còn lại 50 cho đến khi tìm ra một token hoàn chỉnh. Kỹ thuật này đôi khi cũng gây ra sự nhầm lẫn cho giai đoạn phân tích cú pháp, nhưng nói chung là vẫn có thể sử dụng được. Một số chiến lược khắc phục lỗi khác là: 1. Xóa đi một ký tự dư. 2. Xen thêm một ký tự bị mất. 3. Thay thế một ký tự không đúng bằng một ký tự đúng. 4. Chuyển đổi hai ký tự kế tiếp nhau. II. LƯU TRỮ TẠM CHƯƠNG TRÌNH NGUỒN Việc đọc từng ký tự trong chương trình nguồn có thể tiêu hao một số thời gian đáng kể do đó ảnh hưởng đến tốc độ dịch. Ðể giải quyết vấn đề này người ta đọc một lúc một chuỗi ký tự, lưu trữ vào trong vùng nhớ tạm - gọi là bộ đệm input (buffer). Tuy nhiên, việc đọc như vậy cũng gặp một số trở ngại do không thể xác định một chuỗi như thế nào thì chứa trọn vẹn một token? Phần này giới thiệu vài phương pháp đọc bộ đệm hiệu quả: 1. Cặp bộ đệm (Buffer Pairs) Ðối với nhiều ngôn ngữ nguồn, có một vài trường hợp bộ phân tích từ vựng phải đọc thêm một số ký tự trong chương trình nguồn vượt quá trị từ vựng cho một mẫu trước khi có thể thông báo đã so trùng được một token. Trong phương pháp cặp bộ đệm, vùng đệm sẽ được chia thành hai nửa với kích thước bằng nhau, mỗi nửa chứa được N ký tự. Thông thường, N là số ký tự trên một khối đĩa, N bằng 1024 hoặc 4096. Mỗi lần đọc, N ký tự từ chương trình nguồn sẽ được đọc vào mỗi nửa bộ đệm bằng một lệnh đọc (read) của hệ thống. Nếu số ký tự còn lại trong chương trình nguồn ít hơn N thì một ký tự đặc biệt eof được đưa vào buffer sau các ký tự vừa đọc để báo hiệu chương trình nguồn đã được đọc hết. Sử dụng hai con trỏ dò tìm trong buffer. Chuỗi ký tự nằm giữa hai con trỏ luôn luôn là trị từ vựng hiện hành. Khởi đầu, cả hai con trỏ đặt trùng nhau tại vị trí bắt đầu của mỗi trị từ vựng. Con trỏ p1 (lexeme_beginning) - con trỏ bắt đầu trị từ vựng - sẽ giữ cố định tại vị trí này cho đến khi con trỏ p2 (forwar) - con trỏ tới - di chuyển qua từng ký tự trong buffer để xác định một token. Khi một trị từ vựng cho một token đã được xác định, con trỏ p1 dời lên trùng với p2 và bắt đầu dò tìm một trị từ vựng mới. Hình 3.3 - Cặp hai nửa vùng đệm E = M * C * * 2 EOF p1 p2 Khi con trỏ p2 tới ranh giới giữa 2 vùng đệm, nửa bên phải được lấp đầy bởi N ký tự tiếp theo trong chương trình nguồn. Khi con trỏ p2 tới vị trí cuối bộ đệm, nửa bên trái sẽ được lấp đầy bởi N ký tự mới và p2 sẽ được dời về vị trí bắt đầu bộ đệm. 51 Phương pháp cặp bộ đệm này thường họat động rất tốt nhưng khi đó số lượng ký tự đọc trước bị giới hạn và trong một số trường hợp nó có thể không nhận dạng được token khi con trỏ p2 phải vượt qua một khoảng cách lớn hơn chiều dài vùng đệm. Giải thuật hình thức cho họat động của con trỏ p2 trong bộ đệm : if p2 ở cuối nửa đầu then begin Ðọc vào nửa cuối; p2 := p2 + 1; end else if p2 ở cuối của nửa cuối then begin Ðọc vào nửa đầu; Dời p2 về đầu bộ đệm ; end else p2 := p2 + 1 2. Khóa cầm canh (Sentinel) Phương pháp cặp bộ đệm đòi hỏi mỗi lần di chuyển p2 đều phải kiểm tra xem có phải đã hết một nửa buffer chưa nên kém hiệu quả vì phải hai lần kiểm tra. Ðể khắc phục điều này, mỗi lần chỉ đọc N-1 ký tự vào mỗi nửa buffer còn ký tự thứ N là một ký tự đặc biệt, thường là eof. Như vậy chúng ta đã rút ngắn một lần kiểm tra. E = M * eof C * * 2 eof p1 p2 Hình 3.4 - Khóa cầm canh eof tại cuối mỗi vùng đệm Giải thuật hình thức cho họat động của con trỏ p2 trong bộ đệm : p2 := p2 + 1; if p2↑ = eof then begin if p2 ở cuối của nửa đầu then begin Ðọc vào nửa cuối; p2 := p2 + 1; end else if p2 ở cuối của nửa sau then 52 begin Ðọc vào nửa đầu; Dời p2 vào đầu của nửa đầu; end else /* EOF ở giữa vùng đệm chỉ hết chương trình nguồn */ kết thúc phân tích từ vựng; end III. ÐẶC TẢ TOKEN (Specification of Token ) 1. Chuỗi và ngôn ngữ Chuỗi là một tập hợp hữu hạn các ký tự. Ðộ dài chuỗi là số các ký tự trong chuỗi. Chuỗi rỗng ε là chuỗi có độ dài 0. Ngôn ngữ là tập hợp các chuỗi. Ngôn ngữ có thể chỉ bao gồm một chuỗi rỗng ký hiệu là ∅. 2. Các phép toán trên ngôn ngữ Cho 2 ngôn ngữ L và M : - Hợp của L và M : L ∪ M = { s | s ∈ L hoặc s ∈ M } - Ghép (concatenation) của L và M: LM = { st | s ∈ L và t ∈ M } - Bao đóng Kleen của L: L* = ∞∪i = 0 Li (Ghép của 0 hoặc nhiều L) - Bao đóng dương (positive closure) của L: L+ = ∞∪i = 1 Li (Ghép của 1 hoặc nhiều L) Ví dụ 3.2: L = {A, B, ..., Z, a, b, ..., z } D = { 0, 1, , ..., 9 } 1. L ∪ D là tập hợp các chữ cái và số. 2. LD là tập hợp các chuỗi bao gồm một chữ cái và một chữ số. 3. L4 là tập hợp tất cả các chuỗi 4 chữ cái. 4. L* là tâp hợp tất cả các chuỗi của các chữ cái bao gồm cả chuỗi rỗng. 5. L( L ∪ D)* là tập hợp tất cả các chuỗi mở đầu bằng một chữ cái theo sau là chữ cái hay chữ số 6. D+ là tập hợp tất cả các chuỗi gồm một hoặc nhiều chữ số. 3. Biểu thức chính quy (Regular Expression) Trong Pascal, một danh biểu là một phần tử của tập hợp L (L ∪ D)*. Chúng ta có thể viết: danhbiểu = letter (letter | digit)* - Ðây là một biểu thức chính quy. 53 Biểu thức chính quy được xây dựng trên một tập hợp các luật xác định. Mỗi biểu thức chính quy r đặc tả một ngôn ngữ L(r). Sau đây là các luật xác định biểu thức chính quy trên tập Alphabet ∑. 1. ε là một biểu thức chính quy đặc tả cho một chuỗi rỗng {ε }. 2. Nếu a ∈ ∑ thì a là biểu thức chính quy r đặc tả tập hợp các chuỗi {a} 3. Giả sử r và s là các biểu thức chính quy đặc tả các ngôn ngữ L(r) và L(s) ta có: a. (r) | (s) là một biểu thức chính quy đặc tả L(r) ∪ L(s) b. (r) (s) là một biểu thức chính quy đặc tả L(r)L(s). c. (r)* là một biểu thức chính quy đặc tả (L(r))* Quy ước: Toán tử bao đóng * có độ ưu tiên cao nhất và kết hợp trái. Toán tử ghép có độ ưu tiên thứ hai và kết hợp trái. Toán tử hợp | có độ ưu tiên thấp nhất và kết hợp trái. Ví dụ 3.3: Cho ∑ = { a, b} 1. Biểu thức chính quy a | b đặc tả {a, b} 2. Biểu thức chính quy (a | b) (a | b) đặc tả tập hợp {aa, ab, ba, bb}.Tập hợp này có thể được đặc tả bởi biểu thức chính quy tương đương sau: aa | ab | ba | bb. 3. Biểu thức chính quy a* đặc tả { ε, a, aa, aaa, ... } 4. Biểu thức chính quy (a | b)* đặc tả {(, a, b, aa,bb, ...}. Tập này có thể đặc tả bởi (a*b* )*. 5. Biểu thức chính quy a | a* b đặc tả {a, b, ab, aab,... } Hai biểu thức chính quy cùng đặc tả một tập hợp ta nói rằng chúng tương đương và viết r = s. 4. Các tính chất đại số của biểu thức chính quy Biểu thức chính quy cũng tuân theo một số luật đại số và có thể dùng các luật này để biến đổi biểu thức thành những dạng tương đương. Bảng sau trình bày một số luật đại số cho các biểu thức chính quy r, s và t. Tính chất Mô tả r | s = s | r | có tính chất giao hoán r | (s | t) = (r | s ) | t | có tính chất kết hợp (rs) t = r (st) Phép ghép có tính chất kết hợp r (s | t) = rs | rt (s | t) r = sr | tr Phép ghép phân phối đối với phép | εr = r ε là phần tử đơn vị của phép ghép 54 rε = r r* = ( r | ε )* Quan hệ giữa r và ε r* * = r * * có hiệu lực như nhau Hình 3.5 - Một số tính chất đại số của biểu thức chính quy 5. Ðịnh nghĩa chính quy (Regular Definitions) Ðịnh nghĩa chính quy là một chuỗi các định nghĩa có dạng : d1 Æ r1 di là một tên, d2 Æ r2 ri là một biểu thức chính quy. ... dn Æ rn Ví dụ 3.4: Tập hợp các danh biểu trong Pascal là một tập hợp các chuỗi chữ cái và số, mở đầu bằng một chữ cái. Ðịnh nghĩa chính quy của tập đó là: letter Æ A | B | ...| Z | a | b |...| z digit Æ 0 | 1 | ...| 9 id Æ letter (letter | digit)* Ví dụ 3.5 : Các số không dấu trong Pascal là các chuỗi 5280, 39.37, 6.336E4 hoặc 1.894E-4. Ðịnh nghĩa chính quy sau đặc tả tập các số này là : digit Æ 0 | 1 |...| 9 digits Æ digit digit* optional_fraction Æ . digits | ε optional_exponent Æ ( E ( + | - | ε ) digits) | ε num Æ digits optional_fraction optional_exponent 6. Ký hiệu viết tắt Người ta quy định các ký hiệu viết tắt cho thuận tiện trong việc biểu diễn như sau: 1. Một hoặc nhiều: dùng dấu + 2. Không hoặc một: dùng dấu ? Ví dụ 3.6: r | ε được viết tắt là r ? Ví dụ 3.7: Viết tắt cho định nghĩa chính quy tập hợp số num trong ví dụ 3.5 digit Æ 0 | 1 |... | 9 digits Æ digit + optional_fraction Æ (. digits ) ? optional_exponent Æ ( E ( + | - ) ? digits) ? num Æ digits optional_fraction optional_exponent 55 3. Lớp ký tự [abc] = a | b | c [a - z] = a | b |... | z Sử dụng lớp ký hiệu chúng ta có thể mô tả danh biểu như là một chuỗi sinh ra bởi biểu thức chính quy : [A - Z a - z] [A - Z a - z 0 - 9]* IV. NHẬN DẠNG TOKEN Trong suốt phần này, chúng ta sẽ dùng ngôn ngữ được tạo ra bởi văn phạm dưới đây làm thí dụ minh họa : stmt Æ if expr then stmt | if expr then stmt else stmt | ε expr Æ term relop term | term term Æ id | num Trong đó các ký hiệu kết thúc if, then, else, relop, id, num được cho bởi định nghĩa chính quy sau: if Æ if then Æ then else Æ else relop Æ | > | >= id Æ letter (letter | digit) * num Æ digit + ( . digit +) ? (E (+ | -) ? digit +) ? Ðịnh nghĩa chính quy của các khoảng trắng ws (white space) delim Æ blank | tab | newline ws Æ delim+ Mục đích của chúng ta là xây dựng một bộ phân tích từ vựng có thể định vị được từ tố cho các token kế tiếp trong vùng đệm và tạo ra output là một cặp token thích hợp và giá trị thuộc tính của nó bằng cách dùng mẫu biểu thức chính quy cho các token như sau: Biểu thức chính quy Token Trị thuộc tính ws - - if if - then then - 56 else else - id id con trỏ trong bảng ký hiệu num num giá trị số < relop LT (Less Than) <= relop LE (Less Or Equal) = relop EQ (Equal) relop NE (Not Equal) > relop GT (Greater Than) >= relop GE (Greater Or Equal) Hình 3.6 - Mẫu biểu thức chính quy cho một số token 1. Sơ đồ dịch Ðể dễ dàng nhận dạng token, chúng ta xây dựng cho mỗi token một sơ đồ dịch (translation diagram). Sơ đồ dịch bao gồm các trạng thái (state) ký hiệu bởi vòng tròn và các cạnh mũi tên nối các trạng thái. Nói chung thường có nhiều sơ đồ dịch, mỗi sơ đồ đặc tả một nhóm token. Nếu xảy ra thất bại khi chúng ta đang đi theo một sơ đồ dịch thì chúng ta dịch lui con trỏ tới về nơi nó đã ở trong trạng thái khởi đầu của sơ đồ này rồi kích họat sơ đồ dịch tiếp theo. Do con trỏ đầu trị từ vựng và con trỏ tới cùng chỉ đến một vị trí trong trạng thái khởi đầu của sơ đồ, con trỏ tới sẽ được dịch lui lại để chỉ đến vị trí được con trỏ đầu trị từ vựng chỉ tới. Nếu xảy ra thất bại trong tất cả mọi sơ đồ dịch thì xem như một lỗi từ vựng đã được phát hiện và chúng ta sẽ khởi động một thủ tục khắc phục lỗi. Phần dưới đây trình bày một số sơ đồ dịch nhận dạng các token trong văn phạm ví dụ trên. Sơ đồ dịch nhận dạng cho token relop: 0 1 2 3 4 5 6 7 8 < start = return( relop, LE ) > return( relop, NE ) return( relop, LT ) other * = return( relop, EQ )> = other return( relop, GE ) return( relop, GT ) * Hình 3.7 - Sơ đồ dịch cho các toán tử quan hệ Chúng ta dùng ký hiệu * để chỉ ra những trạng thái mà chúng ta đã đọc quá một ký tự, cần phải quay lui con trỏ lại. Sơ đồ dịch nhận dạng token id: 57 9 start 10 11 otherletter * letter or digit return( gettoken(), install_id() ) Hình 3.8 - Sơ đồ dịch cho các danh biểu và từ khóa Một kỹ thuật đơn giản để tách từ khóa ra khỏi các danh biểu là khởi tạo bảng ký hiệu lưu trữ thông tin về danh biểu một cách thích hợp. Ðối với các token cần nhận dạng trong văn phạm này, chúng ta cần nhập các chuỗi if, then và else vào bảng ký hiệu trước khi đọc các ký hiệu trong bộ đệm nguyên liệu. Ðồng thời ghi chú trong bảng ký hiệu để trả về token đó khi một trong các chuỗi này được nhận ra. Sử dụng các hàm gettoken( ) và install_id( ) tương ứng để nhận token và các thuộc tính trả về. Sơ đồ dịch nhận dạng token num: Một số vấn đề sẽ nảy sinh khi chúng ta xây dựng bộ nhận dạng cho các số không dấu. Trị từ vựng cho một token num phải là trị từ vựng dài nhất có thể được. Do đó, việc thử nhận dạng số trên các sơ đồ dịch phải theo thứ tự từ sơ đồ nhận dạng số dài nhất. + or - 17 digit 18 digit other 1912 start digit 13 digit 14 digit 15 digit E 16 E digit *• 20 start digit 21 digit 22 digit 23 digit 24 other * • 25 digit 26 digit 27 other *start Hình 3.9 - Sơ đồ dịch cho các số không dấu trong Pascal Có nhiều cách để tránh các đối sánh dư thừa trong các sơ đồ dịch trên. Một cách là viết lại các sơ đồ dịch bằng cách tổ hợp chúng thành một - một công việc nói chung là không đơn giản lắm. Một cách khác là thay đổi cách đáp ứng với thất bại trong qua trình duyệt qua một sơ đồ. Phương pháp được sử dụng ở đây là cho phép ta vượt qua nhiều trạng thái kiểm nhận và quay trở lại trạng thái kiểm nhận cuối cùng đã đi qua khi thất bại xảy ra. Sơ đồ dịch nhận dạng khoảng trắng ws (white space): Việc xử lý các khoảng trắng ws không hoàn toàn giống như các mẫu nói trên bởi vì không có gì để trả về cho bộ phân tích cú pháp khi tìm thấy các khoảng trắng trong 58 chuỗi nhập. Và do đó, thao tác đơn giản cho việc dò tìm trên sơ đồ dịch khi phát hiện khoảng trắng là trở lại trạng thái bắt đầu của sơ đồ dịch đầu tiên để tìm một mẫu khác. 28 delim 29 delim 30 other *start Hình 3.10 - Sơ đồ dịch cho các khoảng trắng 2. Cài đặt một sơ đồ dịch Dãy các sơ đồ dịch có thể được chuyển thành một chương trình để tìm kiếm token được đặc tả bằng các sơ đồ. Mỗi trạng thái tương ứng với một đoạn mã chương trình. Nếu có các cạnh đi ra từ trạng thái thì đọc một ký tự và tùy thuộc vào ký tự đó mà đi đến trạng thái khác. Ta dùng hàm nextchar( ) đọc một ký tự từ trong bộ đệm input và con trỏ p2 di chuyển sang phải một ký tự. Nếu không có một cạnh đi ra từ trạng thái hiện hành phù hợp với ký tự vừa đọc thì con trỏ p2 phải quay lại vị trí của p1 để chuyển sang sơ đồ dịch kế tiếp. Hàm fail( ) sẽ làm nhiệm vụ này. Nếu không có sơ đồ nào khác để thử, fail( ) sẽ gọi một thủ tục khắc phục lỗi. Ðể trả về các token, chúng ta dùng một biến tòan cục lexical_value. Nó được gán cho các con trỏ được các hàm install_id( ) và install_num( ) trả về, tương ứng khi tìm ra một danh biểu hoặc một số. Lớp token được trả về bởi thủ tục chính của bộ phân tích từ vựng có tên là nexttoken( ). int state = 0, start = 0; int lexical_value; /* để “trả về” thành phần thứ hai của token */ int fail ( ) { forward = token_beginning; switch (start) { case 0 : start = 9; break; case 9 : start = 12; break; case 12 : start = 20; break; case 20 : start = 25; break; case 25 : recover ( ); break; default : / * lỗi trình biên dịch */ } return start; } token nexttoken ( ) 59 { while (1) { switch (state) { case 0 : c = nextchar ( ) ; / * c là ký hiệu đọc trước */ if ( c = = blank || c = = tab || c = = newline ) { state = 0; lexeme_beginning ++ ; / * dịch con trỏ đến đầu trị từ vựng */ } else if (c = = ‘ < ’) state = 1; else if (c = = ‘ = ’) state = 5; else if (c = = ‘ > ’) state = 6; else state = fail ( ) ; break ; . . . / * các trường hợp 1- 8 ở đây */ [ case 9 : c = nextchar ( ) ; if (isletter (c)) state=10; else state = fail ( ) ; break ; case 10 : c = nextchar ( ) ; if (isletter (c)) state=10; else if (isdigit(c)) state = 10 ; else state = 11 ; break ; case 11 : retract (1) ; install_id ( ) ; return (gettoken ( )); . . . / * các trường hợp 12 - 24 ở đây */ case 25 : c = nextchar ( ) ; if (isdigit (c)) state=26; else state = fail ( ) ; break ; case 26 : c = nextchar ( ) ; if (isdigit (c)) state=26; else state = 27 ; break ; case 27 : retract (1) ; install_num ( ) ; return (NUM); 60 } } } V. NGÔN NGỮ ÐẶC TẢ CHO BỘ PHÂN TÍCH TỪ VỰNG 1. Bộ sinh bộ phân tích từ vựng Có nhiều công cụ để xây dựng bộ phân tích từ vựng dựa vào các biểu thức chính quy. Lex là một công cụ được sử dụng rộng rãi để tạo bộ phân tích từ vựng. Trước hết đặc tả cho một bộ phân tích từ vựng được chuẩn bị bằng cách tạo ra một chương trình lex.l trong ngôn ngữ lex. Trình biên dịch Lex sẽ dịch lex.l thành một chương trình C là lex.yy.c. Chương trình này bao gồm các đặc tả về sơ đồ dịch được xây dựng từ các biểu thức chính quy của lex.l, kết hợp với các thủ tục chuẩn nhận dạng trị từ vựng. Các hành vi kết hợp với biểu thức chính quy trong lex.l là các đoạn chương trình C được chuyển sang lex.yy.c. Cuối cùng trình biên dịch C sẽ dịch lex.yy.c thành chương trình đối tượng a.out, đó là bộ phân tích từ vựng có thể chuyển dòng nhập thành chuỗi các token. Lex Compiler Chương trình nguồn của lex: lex.l Lex.yy.c C Compiler a.out Lex.yy.c Chuỗi nhập a.out Chuỗi các token Hình 3.11 - Tạo ra bộ phân tích từ vựng bằng Lex Chú ý: Những điều ta nói trên là nói về lex trong UNIX. Ngày nay có nhiều version của lex như Lex cho Pascal hoặc Javalex. 2. Ðặc tả lex Một chương trình lex bao gồm 3 thành phần: Khai báo %% Quy tắc dịch %% Các thủ tục phụ Phần khai báo bao gồm khai báo biến, hằng và các định nghĩa chính quy. Phần quy tắc dịch cho các lệnh có dạng: p1 {action 1 } 61 p2 {action 2 } . . . pn {action n } Trong đó pi là các biểu thức chính quy, action i là đoạn chương trình mô tả hành động của bộ phân tích từ vựng thực hiện khi pi tương ứng phù hợp với trị từ vựng. Trong lex các đoạn chương trình này được viết bằng C nhưng nói chung có thể viết bằng bất cứ ngôn ngữ nào. Các thủ tục phụ là sự cài đặt các hành động trong phần 2. Ví dụ 3.8: Sau đây trình bày một chương trình Lex nhận dạng các token của văn phạm đã nêu ở phần trước và trả về token được tìm thấy. %{ /* định nghĩa các hằng LT, LE, EQ, NE, GT, GE, IF, THEN, ELSE, ID, NUMBER, RELOP */ }% /* định nghĩa chính quy */ delim [\t\n] ws {delim}+ letter [A - Za - z] digit [0 - 9] id {letter}({letter}| {digit})* number {digit}+(\.{digit}+)?(E[+\-]?{digit}+)? %% {ws} {/* Không có action, không có return */} if {return(IF); } then {return(THEN); } else {return(ELSE); } {id} {yylval = install_id( ); return(ID) } {number} {yylval = install_num( ); return(NUMBER) } “< ” {yylval = LT; return(RELOP) } “<= “ {yylval = LE; return(RELOP) } “= “ {yylval = EQ; return(RELOP) } “ “ {yylval = NE; return(RELOP) } “> “ {yylval = GT; return(RELOP) } “>= “ {yylval = GE; return(RELOP) } %% 62 install_id ( ) { /* Thủ tục phụ cài id vào trong bảng ký hiệu */ } install_num ( ) { /* Thủ tục phụ cài một số vào trong bảng ký hiệu */ } 63 BÀI TẬP CHƯƠNG III 3.1. Xác định bộ chữ cái của các ngôn ngữ sau: a) Pascal b) C c) LISP 3.2. Hãy xác định các trị từ vựng có thể hình thành các token trong các đoạn chương trình sau: a) PASCAL function max (i, j :integer) : integer; { Trả về số nguyên lớn hơn trong 2 số i và j } begin i > j then max : = i else max : = j; end; b) C int max (i, j) int i, j; /* Trả về số nguyên lớn hơn trong 2 số i và j */ { return i > j ? i : j } c) FORTRAN 77 FUNCTION MAX (i, j) C Trả về số nguyên lớn hơn trong 2 số i và j IF ( I .GT. J) THEN MAX = I ELSE MAX = J END IF RETURN 64 3.3. Viết một chương trình Lex sao chép một tập tin, thay các chuỗi khoảng trắng thành một khoảng trắng duy nhất. 3.4. Viết một đặc tả Lex cho các token của ngôn ngữ Pascal và dùng trình biên dịch Lex để xây dựng một bộ phân tích từ vựng cho Pascal. 65

Các file đính kèm theo tài liệu này:

  • pdfbai_giang_nguyen_ly_ngon_ngu_lap_trinh_chuong_3_phan_tich_tu.pdf