SWI-Prolog tokenize_atom/2 替代品?
我需要做的是将原子分解为令牌。例如:
tokenize_string('Hello, World!', L).
将统一 L=['Hello',',','World','!']
。正如 tokenize_atom/2
所做的那样。但是当我尝试将 tokenize_atom/2
与非拉丁字母一起使用时,它失败了。有没有通用的替代品或者我如何编写一个?提前致谢。
What I need to do is to break atom to tokens. E. g.:
tokenize_string('Hello, World!', L).
would unify L=['Hello',',','World','!']
. Exactly as tokenize_atom/2
do. But when I try to use tokenize_atom/2
with non-latin letters it fails. Is there any universal replacement or how I can write one? Thanks in advance.
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
好吧,你可以编写自己的词法分析器。例如,我可以向您展示我的算术表达式解析器中的词法分析器。
工作原理:
Well, you could write your own lexer. For example I can show you a lexer from my arithmetic expressions parser.
How it works: