Django 中的自定义标记
任何人都可以给我一个想法或者一些关于如何使用 Textile 或 Markdown 为 django 创建自定义标记的参考(或者我在这里认为错误)?
例如:我想转换以下标记(外括号表示它们被分组为一个标签:
[
[联系方式]
* 联系#1
* 联系#2
* 联系#3
[好友请求]
*何塞
]
将它们转换为:
<div class="tabs">
<ul>
<li class="tab">Contacts</li>
<li>Contact #1</li>
(etc.. etc..)
</ul>
</div>
或者正则表达式更适合我的需求?
Can anyone give me an idea or perhaps some references on how to create custom markups for django using textile or Markdown(or am I thinking wrong here)?
For example: I'd like to convert the following markups(the outer bracket mean they are grouped as one tag:
[
[Contacts]
* Contact #1
* Contact #2
* Contact #3
[Friend Requests]
* Jose
]
to have them converted to:
<div class="tabs">
<ul>
<li class="tab">Contacts</li>
<li>Contact #1</li>
(etc.. etc..)
</ul>
</div>
or is regex more recommended for my needs?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(4)
内置的 标记 应用程序使用过滤器模板标签来渲染纺织品、降价和重组文本。 如果这不是您想要的,另一种选择是使用“标记”字段。 例如,
来自 James Tauber(和 Brian Rosner)django 模式的示例说话。
The built in markup app uses a filter template tag to render textile, markdown and restructuredtext. If that is not what your looking for, another option is to use a 'markup' field. e.g.,
Example from James Tauber's (and Brian Rosner's) django patterns talk.
Django 附带一个内置的 contrib 应用程序,它提供过滤器来使用几种不同的标记语言(包括 Textile 和 Markdown)显示数据。
有关更多信息,请参阅相关文档。
Django comes with a built-in contrib app that provides filters to display data using several different markup languages, including textile and markdown.
See the relevant docs for more info.
谷歌快速搜索得到了这个
A quick google search resulted with this
看来最好的方法仍然是使用正则表达式并创建我自己的过滤器。
以下是一些对我有帮助的链接:
http://showmedo.com/videos/video?name=1100010&fromSeriesID= 110
http://www.smashingmagazine.com/2009 /05/06/introduction-to-advanced-regular-expressions/
希望这可以帮助那些和我有同样问题的人!
Well it seems the best way is still use a regex and create my own filter.
here are some links that helped me out:
http://showmedo.com/videos/video?name=1100010&fromSeriesID=110
http://www.smashingmagazine.com/2009/05/06/introduction-to-advanced-regular-expressions/
hope this helps someone who had the same problem as me!