上回我们用函数式编程的方法,结合Linq语法,建立了一套解析器组合子方案,并能成功解析自定义文法的输入字符串。但是,上次做成的解析器组合子有个重要的功能没有完成——错误报告。作为编程语言的语法分析器,不能在遇到语法错误的时候简单地返回null,那样程序员就很难修复代码中的语法错误。我们需要的是准确报告语法错误的位置,更进一步,是程序中所有的语法错误,而不仅仅是头一个。后者要求解析器具有错误恢复的能力,即在遇到语法错误之后,还能恢复到正常状态继续解析。错误恢复不仅仅可以用在检测出所有的语法错误,还可以在存在语法错误的时候仍然提供有意义的解析结果,从而用于IDE的智能感知和重构等功能。手写的递归下降语法分析器可以很容易地加入错误恢复,但需要针对每一处错误手工编写代码来恢复。像C#官方编译器,给出的语法错误信息非常全面、精确、智能,全都是手工编写的功劳。又回到我们是懒人这个残酷的事实,能不能在让解析器组合子生成的解析器自动具有错误恢复能力呢?
首先来看上一个版本的四个基本组合子:空产生式的Succeed组合子,token产生式的AsParser组合子,连接运算产生式的SelectMany组合子和并运算产生式的Union组合子。首先Succeed是不会解析失败的,所以它没有必要进行错误恢复。现在来看AsParser组合子,它的逻辑是读取下一个词素,如果词素的单词类型和组合子的参数匹配则解析成功,否则解析失败。代码如下:
public static ParserFunc<Lexeme> AsParser(this Token token) { return scanner => { var lexeme = scanner.Read(); if (lexeme.TokenIndex == token.Index) { return new Result<Lexeme>(lexeme, scanner); } else { return null; } }; } |
如果要对失败的情形进行错误恢复,有两种可行的选择:1、假装要解析的Token存在,继续解析(这种做法相当于在原位置插入了一个单词);2、跳过不匹配的单词,重新进行解析(这种做法相当于删除了一个单词)。如果漏写一个分号或者括号,插入型错误恢复就能有效地恢复错误,如果是多写了一个关键字或标识符造成的错误,删除型错误恢复就能有效地恢复。但问题是,我们怎么能在组合子的代码中判断出哪种错误恢复更有效呢?最优策略是让两种错误恢复的状态都继续解析到末尾,然后看哪种恢复状态整体语法错误最少。但是,只要有一个字符解析失败,就要分支成两个完整解析,那么错误一旦多起来,这个分支的庞大程度将使得错误恢复无法进行。更何况,错误并不仅仅出现在真正的语法错误上,我们还要用错误来判断“并”运算组合子的分支问题。请看上一版本Union组合子的代码:
public static ParserFunc<T> Union<T>(this ParserFunc<T> parser1, ParserFunc<T> parser2) { return scanner => { var scanner1 = scanner; var scanner2 = scanner.Fork(); var result1 = parser1(scanner1); if (result1 != null) { return result1; } var result2 = parser2(scanner2); return result2; }; } |
在Union中,我们先试验第一个parser1能否解析成功,如果失败才解析parser2。如果解析器有自动错误恢复的功能,那么我们就无法用这种方式判断了,因为两条分支遇到错误之后都会继续进行下去。我们可以让两条分支都解析到底,然后挑错误较少的分支作为正式解析结果。但同上所述,这种做法的分支多得难以置信,效率上决定我们不能采用。
为了避免效率问题,我们需要一种“广度优先”的处理方案。在遇到错误时产生的“插入”和“删除”两条分支,要同时进行,但要一步一步地进行。这里所谓的一“步”,就是指AsParser组合子读取一个词素。我们看到四种基本组合子中,只有AsParser组合子会用scanner来真正读取词素,其他组合子最终也是要调用到AsParser组合子来进行解析的。我们让两个可能的分支都向前解析一步,然后看是否其中一条分支的结果比另外一条更好。所谓更好,就是一条分支没有进一步遇到错误,而另外一条分支遇到了错误。如果两条分支都没有遇到错误,或者都遇到了错误,我们就再向前推进一步,直到某一步比另外一步更好为止。Union组合子也可以采用同样的策略处理。这是一种贪心算法的策略,我们所得到的结果未必是语法错误最少的解析结果,但它的效率是可以接受的。
那么怎么进行“广度优先”推进呢?我们上次引入的组合子,当前的组合子无法知道下一个要运行的组合子是什么,更无法控制下一个组合子只向前解析一步。为了达到目的,我们要引入一种新的组合子函数原型,称作CPS(Continuation Pass-in Style)风格的组合子。不知道大家有多少人听说过CPS,这在函数式编程界是一种广为应用的模式,在.NET世界里其实也有采用。.NET 4.0引入的Task Parallel Library库中的Task类,就是一个典型的CPS设计范例。我举一个简单的例子来介绍一下CPS。如果有两个函数A和B,需要按顺序调用,用传统方式编程很简单,就是直接调用:
void A() { Console.WriteLine("A"); } void B() { Console.WriteLine("B"); } void Run() { A(); B(); } |
而如果采用CPS,则是把B传递给A,这时我们称B是A的continuation,或者future。
void A(Action future) { Console.WriteLine("A"); future(); } void B() { Console.WriteLine("B"); } void Run() { A(B); } |
乍一看这也不能实现什么特别的事情,但其实是很有用的。A获得了自己的future之后可以自行决定如何运行它。比如可以异步地运行。这样我们就在Run()方法中,用一种容易理解的方式,构建出了一条异步调用序列。.NET 4.0的Task Parallel Library正是这样的风格,每个Task类通过ContinueWith方法接受自己的future。而我们的函数式解析其组合子,也可以用这种方式,让每个Parser函数接受一个future,并自行决定如何调用future。这里最关键的思想是实现延迟调用future,从而实现“广度优先”的单步解析效果。首先来看看新的Parser类原型(警告,这一篇里采用的函数式技巧比上一篇还要难懂得多,如果看了之后发生头晕,嗜睡等症状,请休息之后重新看……):
public delegate Result<T> ParserFunc<T>(ForkableScanner scanner, ParserContext context); public delegate ParserFunc<TFuture> Future<T, TFuture>(T value); public abstract class Parser<T> { public abstract ParserFunc<TFuture> BuildParser<TFuture>(Future<T, TFuture> future); } |
ParserFunc方法和上一篇非常类似,但是多了一个ParserContext方法。我们会用这个对象来保存一些错误报告的信息。再来是Future函数的定义,Future返回的类型是一个ParserFunc委托对象;Future的参数T,则是用来让每一个组合子生成的Parser,将自己的解析结果T传给它自己的Future用的。注意这次多了一个Parser<T>抽象类,它代替ParserFunc成为组合子的生成对象。它之所以不能声明成一个委托,是因为它的BuildParser方法要接受一个额外的泛型类型参数TFuture。接下来每一个解析器组合子都需要继承自Parser<T>,并实现它的BuildParser方法。下面我们就来看一看新的CPS型解析器组合子怎么定义。
首先还是G → ε的组合子,它永远都能解析成功,所以,它的逻辑是生成一个ParserFunc,将预设的解析结果传递给自己的Future:
public class SucceedParser<T> : Parser<T> { public T Value { get; private set; } public SucceedParser(T value) { Value = value; } public override ParserFunc<TFuture> BuildParser<TFuture>(Future<T, TFuture> future) { return (scanner, context) => future(Value)(scanner, context); } } |
这是第一次实践CPS风格,大家一定要注意观察它与上一次传统风格解析器组合子的不同。最关键的一点,就是返回的ParserFunc,必须要调用BuildParser传进来的future函数,传递自己的解析结果。
接下来就是重头戏G → t,我们要在这个单词解析器组合子中加入期待已久的错误报告和错误恢复功能,请看代码:
public class TokenParser : Parser<Lexeme> { public Token ExpectedToken { get; private set; } public string MissingCorrection { get; private set; } public TokenParser(Token expected) { ExpectedToken = expected; MissingCorrection = expected.ToString(); } public override ParserFunc<TFuture> BuildParser<TFuture>(Future<Lexeme, TFuture> future) { ParserFunc<TFuture> scan = null; scan = (scanner, context) => { var s1 = scanner.Fork(); var l = scanner.Read(); int tokenIndex; tokenIndex = l.TokenIndex; if (tokenIndex == ExpectedToken.Index) { var r = context.StepResult(0, () => future(l)(scanner, context)); return r; } else { Lexeme correctionLexeme = l.GetErrorCorrectionLexeme(ExpectedToken.Index, MissingCorrection); ErrorCorrection insertCorrection = new InsertedErrorCorrection(ExpectedToken.ToString(), correctionLexeme.Span); if (l.IsEndOfStream) { scanner.Join(s1); return context.StepResult(1, () => future(correctionLexeme)(scanner, context), insertCorrection); //插入 } else { ErrorCorrection deleteCorrection = new DeletedErrorCorrection(l); return context.ChooseBest(context.StepResult(1, () => future(correctionLexeme)(s1, context), insertCorrection), //插入 context.StepResult(1, () => scan(scanner, context), deleteCorrection)); //删除 } } }; return scan; } } |
大致描述下来就是生成这样一个ParserFunc:首先通过Scanner读取下一个词素,并判断它是否是期待的单词。如果是,则调用context.StepResult(0, …)方法(稍后解释);如果不是,则判断是否遇到的输入流的末尾,如果是末尾,则只尝试“插入”修复方案(因为无法删除“流末尾”单词),如果不是末尾则使用context.ChooseBest方法,尝试插入和删除两种修复方案。context.StepResult方法就是产生延迟执行future的关键。它的第一个参数表示该结果的“代价”,0表示这是一个成功解析的结果;1表示是经过错误恢复的结果。第二个参数则是一个延迟执行的委托,这个委托只会在我们需要将解析器“推进一步”的时候才会执行,我们将future函数的调用放在这里并做成延迟执行的方式,就是要等待广度优先一步一步地向前解析时才执行下一步的操作。那么这个context.ChooseBest函数到底是如何实现的呢?请看代码:
private Result<T> ChooseBest<T>(Result<T> result1, Result<T> result2, int correctionDepth) { if (result1.Type == ResultType.Stop) { return result1; } if (result2.Type == ResultType.Stop) { return result2; } var step1 = (StepResult<T>)result1; var step2 = (StepResult<T>)result2; if (step1.Cost < step2.Cost) { return step1; } else if (step1.Cost > step2.Cost) { return step2; } else { return new StepResult<T>(Math.Max(step1.Cost, step2.Cost), () => ChooseBest(step1.NextResult, step2.NextResult, correctionDepth + 1), null); } } |
ChooseBest方法要比较两个Result的代价,并选取代价较小的分支。如果代价一样,则通过延迟计算的方法将比较推至下一轮。我们到处采用延迟计算的手段,以至于整个单词流都输入之后,解析可能仍然没有结束!所以Result类有一个集中取得每一步结果的功能,在单词流输入完毕后还要继续驱动这些延迟计算,直到拿到最终的解析结果。
接下来是表示连接运算G → X Y的SelectMany组合子。具体方法是将传入的future作为Y的future,再将Y的Parser作为X的future,以此将两者连接起来:
public class ConcatenationParser<T1, T2, TR> : Parser<TR> { public Parser<T1> ParserLeft { get; private set; } public Func<T1, Parser<T2>> ParserRightSelector { get; private set; } public Func<T1, T2, TR> Selector { get; private set; } public ConcatenationParser(Parser<T1> parserLeft, Func<T1, Parser<T2>> parserRightSelector, Func<T1, T2, TR> selector) { CodeContract.RequiresArgumentNotNull(parserLeft, "parserLeft"); CodeContract.RequiresArgumentNotNull(parserRightSelector, "parserRightSelector"); CodeContract.RequiresArgumentNotNull(selector, "selector"); ParserLeft = parserLeft; ParserRightSelector = parserRightSelector; Selector = selector; } public override ParserFunc<TFuture> BuildParser<TFuture>(Future<TR, TFuture> future) { return (scanner, context) => ParserLeft.BuildParser( left => ParserRightSelector(left).BuildParser( right => future(Selector(left, right))))(scanner, context); } } |
最后的并运算,则是广度优先同时实验两个传入的Parser,即直接用ChooseBest方法选取继续执行的Parser:
public class AlternationParser<T> : Parser<T> { public Parser<T> Parser1 { get; private set; } public Parser<T> Parser2 { get; private set; } public AlternationParser(Parser<T> parser1, Parser<T> parser2) { CodeContract.RequiresArgumentNotNull(parser1, "parser1"); CodeContract.RequiresArgumentNotNull(parser2, "parser2"); Parser1 = parser1; Parser2 = parser2; } public override ParserFunc<TFuture> BuildParser<TFuture>(Future<T, TFuture> future) { return (scanner, context) => { var s1 = scanner; var s2 = scanner.Fork(); return context.ChooseBest(Parser1.BuildParser(future)(s1, context), Parser2.BuildParser(future)(s2, context)); }; } } |
如果大家还不能很清晰地理解上述CPS风格解析器组合子的原理,也不要担心。我也是花了整整两个星期时间反复看论文才理清所有细节的。而且我贴的也是简化的代码,并不完整。大家可以下载VBF库的源代码来仔细研究。当然,如果对Haskell不恐惧的话,看原始的论文也不错。从这里下载论文(点右上方Download下面的PDF图标):http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.30.7601
最后,我们像上一篇传统解析器组合子那样,为每种组合子声明一个便于使用的静态函数或者扩展方法。注意,在上述四种基本组合子外,CPS组合子如要正常工作,需要一个特殊的组合子——EndOfStreamParser,它类似于TokenParser但错误恢复的时候从不尝试插入。这里略过它的实现,直接来看辅助函数的定义:
public static class Parsers { public static Parser<Lexeme> AsParser(this Token token) { CodeContract.RequiresArgumentNotNull(token, "token"); return new TokenParser(token); } public static Parser<Lexeme> Eos() { return new EndOfStreamParser(); } public static Parser<T> Succeed<T>(T value) { return new SucceedParser<T>(value); } public static Parser<TResult> SelectMany<T1, T2, TResult>(this Parser<T1> parser, Func<T1, Parser<T2>> parserSelector, |
这样,我们就能和上一篇一样用Linq的语法来组合Parser了。最后我们还需要一个驱动延迟计算的类:
public class ParserRunner<T> { public ParserContext Context { get; private set; } private ParserFunc<T> m_runner; public ParserRunner(Parser<T> parser, ParserContext context) { CodeContract.RequiresArgumentNotNull(parser, "parser"); CodeContract.RequiresArgumentNotNull(context, "context"); m_runner = parser.BuildParser(FinalFuture); Debug.Assert(m_runner != null); Context = context; } public T Run(ForkableScanner scanner) { var result = m_runner(scanner, Context); return result.GetResult(Context); } private ParserFunc<T> FinalFuture(T value) { return (scanner, context) => context.StopResult(value); } } |
这个类里我们定义了整个解析器最终的一个future——它产生令所有分支判断停止的StopResult。这里最关键的是利用result.GetResult虚方法推进广度优先的分支选取,并且收集这条路线上所有的语法错误。我们所有的语法错误就只有两种:“丢失某单词”(采用了插入方式错误恢复)和“发现了未预期的某单词”(采用了删除方式错误恢复)。
下面的例子演示了真正的VBF.Compilers.Parsers.Combinators.dll库的用法。真正的VBF库除了定义基本组合子之外还定义了许许多多的重载和扩展函数,基本实现了EBNF的所有功能(而且还可以很容易地继续无限扩展)。用VBF库时Linq语句可以直接在Token上使用,而无需到处使用AsParser扩展方法。此外还有大量的代码,限于逻辑无法全部在博客中展现,大家如想了解最好的方法还是直接下载我的代码观看和试用。
class Node { public Node LeftChild { get; private set; } public Node RightChild { get; private set; } public char Label { get; private set; } public Node(char label, Node left, Node right) { Label = label; LeftChild = left; RightChild = right; } } class Program { static void Main(string[] args) { Lexicon binaryTreeSyntax = new Lexicon(); LexerState lex = binaryTreeSyntax.DefaultLexer; //定义词法 Token LEFTPH = lex.DefineToken(RE.Symbol('(')); Token RIGHTPH = lex.DefineToken(RE.Symbol(')')); Token COMMA = lex.DefineToken(RE.Symbol(',')); Token LETTER = lex.DefineToken(RE.Range('a', 'z') | RE.Range('A', 'Z')); //定义语法 ParserReference<Node> NodeParser = new ParserReference<Node>(); NodeParser.Reference = (from a in LETTER from _1 in LEFTPH from left in NodeParser from _2 in COMMA from right in NodeParser from _3 in RIGHTPH select new Node(a.Value[0], left, right)) | Parsers.Succeed<Node>(null); var builder = new ForkableScannerBuilder(binaryTreeSyntax.CreateScannerInfo()); string source = "A(B(,),C(,))"; SourceReader sr = new SourceReader( new StringReader(source)); ForkableScanner scanner = builder.Create(sr); CompilationErrorManager errorManager = new CompilationErrorManager(); ParserContext context = new ParserContext(errorManager, 0, 1); context.DefineDefaultCompilationErrorInfo(0); var runner = new ParserRunner<Node>(NodeParser.SuffixedBy(Parsers.Eos()), context); var result = runner.Run(scanner); foreach (var error in errorManager.Errors.OrderBy(e => e.ErrorPosition.StartLocation.CharIndex)) { Console.WriteLine(error.ToString()); } } } |
注意from语句已经可以直接使用Token类型,Union操作也可以用“|”运算符代替。由于广度优先分支判断的缘故,整个文法在用于解析之前,必须在后面连接一个EndOfStream,代表解析到文件末尾才算结束。最后的代码还演示了如何将解析错误打印出来。大家可以将输入字符串故意改错,看看是否能够检测出来。还可以试试错误太多太离谱时的性能下降现象。
在下一篇,我们将正式用这套解析器组合子实现miniSharp语言的语法分析器,并且还会接触到VBF库扩展组合子的各种用法。敬请期待!
希望大家继续关注我的VBF项目:https://github.com/Ninputer/VBF 和我的微博:http://weibo.com/ninputer 多谢大家支持!