- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我正在编写 DSL 并使用 Boost Spirit 词法分析器来标记我的输入。在我的语法中,我想要一个类似于此的规则(其中 tok
是词法分析器):
header_block =
tok.name >> ':' >> tok.stringval > ';' >>
tok.description >> ':' >> tok.stringval > ';'
;
我不想为语言指定保留字(例如“name”、“description”)并在词法分析器和语法之间处理这些保留字,我只想标记化与 [a-zA-Z_] 匹配的所有内容\w*
作为单个标记类型(例如 tok.symbol
),并让语法对其进行排序。如果我没有使用词法分析器,我可能会这样做:
stringval = lexeme['"' >> *(char_ - '"') >> '"'];
header_block =
lit("name") >> ':' >> stringval > ';' >>
lit("description") >> ':' >> stringval > ';'
;
结合词法分析器,我可以编译以下规则,但当然它比我想要的匹配更多——它不关心特定的符号值“name”和“description”:
header_block =
tok.symbol >> ':' >> tok.stringval > ';' >>
tok.symbol >> ':' >> tok.stringval > ';'
;
我正在寻找的是这样的:
header_block =
specific_symbol_matcher("name") >> ':' >> tok.stringval > ';' >>
specific_symbol_matcher("description") >> ':' >> tok.stringval > ';'
;
Qi 是否提供了任何我可以使用的东西来代替我的 specific_symbol_matcher
挥手?如果我可以接近使用提供的东西,我宁愿不编写自己的匹配器。如果我必须编写自己的匹配器,有人可以建议怎么做吗?
最佳答案
如果 token 公开了一个 std::string,你应该能够做到:
statement =
( tok.keyword [ qi::_pass = (_1 == "if") ] >> if_stmt )
| ( tok.keyword [ qi::_pass = (_1 == "while) ] >> while_stmt );
如果我没理解错的话,这或多或少就是您要问的。
当你在看的时候,一定要看 qi::symbol<>
以及一个特别巧妙的应用程序,称为 Nabialek Trick .
如果您只是在努力使现有语法与词法分析器一起工作,这就是我刚刚对 calc_utree_ast.cpp
所做的使其与词法分析器一起工作的示例。
显示
///////////////////////////////////////////////////////////////////////////////
//
// Plain calculator example demonstrating the grammar. The parser is a
// syntax checker only and does not do any semantic evaluation.
//
// [ JDG May 10, 2002 ] spirit1
// [ JDG March 4, 2007 ] spirit2
// [ HK November 30, 2010 ] spirit2/utree
// [ SH July 17, 2012 ] use a lexer
//
///////////////////////////////////////////////////////////////////////////////
#define BOOST_SPIRIT_DEBUG
#include <boost/config/warning_disable.hpp>
#include <boost/spirit/include/lex_lexertl.hpp>
#include <boost/spirit/include/support_utree.hpp>
#include <boost/spirit/include/qi.hpp>
#include <boost/spirit/include/phoenix_operator.hpp>
#include <boost/spirit/include/phoenix_function.hpp>
#include <iostream>
#include <string>
namespace lex = boost::spirit::lex;
namespace qi = boost::spirit::qi;
namespace spirit = boost::spirit;
namespace phx = boost::phoenix;
// base iterator type
typedef std::string::const_iterator BaseIteratorT;
// token type
typedef lex::lexertl::token<BaseIteratorT, boost::mpl::vector<char, uint32_t> > TokenT;
// lexer type
typedef lex::lexertl::actor_lexer<TokenT> LexerT;
template <typename LexerT_>
struct Tokens: public lex::lexer<LexerT_> {
Tokens() {
// literals
uint_ = "[0-9]+";
space = " \t\r\n";
// literal rules
this->self += uint_;
this->self += '+';
this->self += '-';
this->self += '*';
this->self += '/';
this->self += '(';
this->self += ')';
using lex::_pass;
using lex::pass_flags;
this->self += space [ _pass = pass_flags::pass_ignore ];
}
lex::token_def<uint32_t> uint_;
lex::token_def<lex::omit> space;
};
namespace client
{
namespace qi = boost::spirit::qi;
namespace ascii = boost::spirit::ascii;
namespace spirit = boost::spirit;
struct expr
{
template <typename T1, typename T2 = void>
struct result { typedef void type; };
expr(char op) : op(op) {}
void operator()(spirit::utree& expr, spirit::utree const& rhs) const
{
spirit::utree lhs;
lhs.swap(expr);
expr.push_back(spirit::utf8_symbol_range_type(&op, &op+1));
expr.push_back(lhs);
expr.push_back(rhs);
}
char const op;
};
boost::phoenix::function<expr> const plus = expr('+');
boost::phoenix::function<expr> const minus = expr('-');
boost::phoenix::function<expr> const times = expr('*');
boost::phoenix::function<expr> const divide = expr('/');
struct negate_expr
{
template <typename T1, typename T2 = void>
struct result { typedef void type; };
void operator()(spirit::utree& expr, spirit::utree const& rhs) const
{
char const op = '-';
expr.clear();
expr.push_back(spirit::utf8_symbol_range_type(&op, &op+1));
expr.push_back(rhs);
}
};
boost::phoenix::function<negate_expr> neg;
///////////////////////////////////////////////////////////////////////////////
// Our calculator grammar
///////////////////////////////////////////////////////////////////////////////
template <typename Iterator>
struct calculator : qi::grammar<Iterator, spirit::utree()>
{
template <typename Tokens>
calculator(Tokens const& toks) : calculator::base_type(expression)
{
using qi::_val;
using qi::_1;
expression =
term [_val = _1]
>> *( ('+' >> term [plus(_val, _1)])
| ('-' >> term [minus(_val, _1)])
)
;
term =
factor [_val = _1]
>> *( ('*' >> factor [times(_val, _1)])
| ('/' >> factor [divide(_val, _1)])
)
;
factor =
toks.uint_ [_val = _1]
| '(' >> expression [_val = _1] >> ')'
| ('-' >> factor [neg(_val, _1)])
| ('+' >> factor [_val = _1])
;
BOOST_SPIRIT_DEBUG_NODE(expression);
BOOST_SPIRIT_DEBUG_NODE(term);
BOOST_SPIRIT_DEBUG_NODE(factor);
}
qi::rule<Iterator, spirit::utree()> expression, term, factor;
};
}
///////////////////////////////////////////////////////////////////////////////
// Main program
///////////////////////////////////////////////////////////////////////////////
int main()
{
std::cout << "/////////////////////////////////////////////////////////\n\n";
std::cout << "Expression parser...\n\n";
std::cout << "/////////////////////////////////////////////////////////\n\n";
std::cout << "Type an expression...or [q or Q] to quit\n\n";
using boost::spirit::utree;
typedef std::string::const_iterator iterator_type;
typedef Tokens<LexerT>::iterator_type IteratorT;
typedef client::calculator<IteratorT> calculator;
Tokens<LexerT> l;
calculator calc(l); // Our grammar
std::string str;
while (std::getline(std::cin, str))
{
if (str.empty() || str[0] == 'q' || str[0] == 'Q')
break;
std::string::const_iterator iter = str.begin();
std::string::const_iterator end = str.end();
utree ut;
bool r = lex::tokenize_and_parse(iter, end, l, calc, ut);
if (r && iter == end)
{
std::cout << "-------------------------\n";
std::cout << "Parsing succeeded: " << ut << "\n";
std::cout << "-------------------------\n";
}
else
{
std::string rest(iter, end);
std::cout << "-------------------------\n";
std::cout << "Parsing failed\n";
std::cout << "stopped at: \"" << rest << "\"\n";
std::cout << "-------------------------\n";
}
}
std::cout << "Bye... :-) \n\n";
return 0;
}
对于输入
8*12312*(4+5)
它打印(没有调试信息)
Parsing succeeded: ( * ( * 8 12312 ) ( + 4 5 ) )
关于c++ - 有没有办法将 spirit::lex 字符串标记的内容匹配为 spirit::qi 语法中的文字,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11512282/
我正在用 lex 编写一个程序,它给了我以下错误: scan.l:49:无法识别的规则 第 49 行是:{number} {return(NUM);} 编辑: 但是,错误似乎与之前的行直接相关,{id
Lex 中的操作可以访问各个正则表达式组吗? (注意:我猜不是,因为组字符 - 括号 - 是根据 documentation 用于更改优先级的。但如果是这样,您是否推荐可以执行此操作的替代 C/C++
我对 lex 很陌生。我正在尝试开发一个解析器来搜索给定输入文件中特定单词的计数... 我的代码是 %{ #include #include #include int
如何使用 Lex/Yacc 识别汉字中的标识符? 最佳答案 我想你的意思是 Lex(词法分析器生成器)。 Yacc 是解析器生成器。 根据 What's the complete range for
我需要为不匹配的字符禁用 flex 输出。默认情况下,我无法禁用 ECHO(),也无法禁用 yyout。任何变体? 最佳答案 lex 的创建者提供了一种更简单、更易于维护的方法。在所有其他规则的末尾添
我想制作接受任何和所有条目的自定义插槽,只要这些条目遵循特定的正则表达式模式,例如:任意数量的字母或数字,但中间没有空格。谁能告诉我 amazon lex 中是否有实现它的方法?另外,如果我想获取某种
如何访问原始文本以引导 lex 中的意图 如何提取整个对话,包括用户输入和 Lex 响应 我想创建一个 lambda 和 API 网关来捕获输入并在将其发送到 Lex 之前记录它,并在每个意图 lam
我一直在研究具有多个意图的 AWS Lex 机器人。目前我遇到一个问题,插槽类型为 AMAZON.AlphaNumberic 的插槽只接受数字。 当我输入诸如“测试”之类的词时,它不会继续进入下一个槽
我正在尝试使用 AWS Lambda 的 C# 版本在列表中打印一系列对象。它链接到我的 AWS RDS 和我的 Lex 机器人。目前,当我使用 LEX 测试控制台测试机器人时,即使我使用 C# 的\
我对 Lex 和 Yacc 很陌生。我有一个 Lex 程序。示例:wordcount.l 我正在使用 windows 和 putty。 我只是想运行这个文件.. wordcount.l文件是否放在C盘
lex.yy.c 中的“yy”代表什么? 最佳答案 Lex 旨在与 Yacc 配合使用。 Steven Johnson 的论文 Yacc: Yet Another Compiler Compiler
Lex 和 Yacc 可以同时对 Lex 和 Yacc 进行 lex 和解析吗? 换句话说,是否可以编写一个自托管的 Lex/Yacc 组合,生成自己的解析器? 编辑:我并不是说组合需要完全解析输入的
可以在以下位置找到以下代码片段:http://zaach.github.io/jison/demos/calc/ ,以及 jison 文档页面。阅读 jison、lex 和 flex 文档后 - 我仍
我正在研究使用 boost::spirit::lex 编写词法分析器,但我能找到的所有示例似乎都假定您已先将整个文件读入 RAM。我想编写一个不需要整个字符串都在 RAM 中的词法分析器,这可能吗?或
我正在寻找通过 .NET SDK 或任何其他 API 构建和发布 AWS Lex 机器人的解决方案。 我们将不胜感激。 最佳答案 我最近刚刚使用 .NET SDK 开发了一个可用的 Amazon Le
编辑:我删除了词法分析器,因为它没有与 Qi 完全集成,只是混淆了语法(见下面的答案)。 我的词法分析器如下所示: template struct tokens : lex::lexer { tok
我为行数和字符数编写了一个 lex 程序(.l 文件) 程序: %{ int charcount=0,linecount=0; %} %% .charcount++ \n linecount++,
我正在尝试使用亚马逊的 boto3 构建一个聊天机器人图书馆。现在,我正在尝试使用 put_intent 创建一个意图。功能。我的代码如下: intent = lexClient.put_intent
在 ocamllex 中,我可以使用 _作为词法规则匹配任何与先前定义的规则不匹配的字符串,并引发错误。如何在 lex/flex 中实现这一点? 最佳答案 通常,您会定义这样的规则,它会放在最后: .
下载并安装了最新版本的 FlexSDK。将其解压到文件夹 C:FlexSDK 中。打开 C:/FlexSDK/bin 的命令提示符。运行该文件夹的目录,我的 mxmlc.exe 文件就在那里。在命令提
我是一名优秀的程序员,十分优秀!