如何使用 C++ 扩展嵌入式 python 解释器功能?
如何使用 C++ 代码扩展嵌入式解释器?我已经嵌入了解释器,并且可以使用 boost.python 来创建可加载模块(如在共享库中),但我不希望该库四处浮动,因为我想直接与我的 C++ 应用程序交互。抱歉,如果我的写作有点不连贯。
How can I extend an embedded interpreter with C++ code? I have embedded the interpreter and I can use boost.python to make a loadable module (as in a shared library) but I don't want the library floating around because I want to directly interface with my C++ application. Sorry if my writing is a bit incoherent.
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
至少对于 2.x 解释器来说:您将方法编写为带有 PyObject* 返回值的 C 风格代码。它们基本上看起来都是这样的:
然后,您将这些方法收集在 PyMethodDef 的静态数组中:
然后,在创建并初始化解释器之后,您可以通过以下方式将这些方法“添加到”解释器中:
您现在可以参考您的方法通过您在此处声明的模块名。
这里有一些附加信息:
http://www.eecs.tufts.edu/~awinsl02/py_c/
At least for the 2.x interpreters: you write your methods as C-style code with PyObject* return values. They all basically look like:
Then, you collect these methods in a static array of PyMethodDef:
Then, after you've created and initialized the interpreter, you can add these methods "into" the interpreter via the following:
You can refer now to your methods via the modulename you've declared here.
Some additional info here:
http://www.eecs.tufts.edu/~awinsl02/py_c/