如何将 wiki 从 FogBugz 6 导出到(几乎)任何其他 wiki(最终目的地:Confluence)?

发布于 2024-07-19 17:51:51 字数 1071 浏览 14 评论 0原文

我们安装了 FogBugz 6,其中包含大量 wiki 内容。 我们正在过渡到使用 Atlassian 产品(JIRA 和 Confluence),因此我们希望将 wiki 内容纳入 Confluence 中。 你会如何处理这个问题?

不幸的是,FogBugz 似乎不提供任何类型的 wiki 导出功能,并且 Confluence 也不提供任何 FogBugz wiki 导入。

FogBugz 确实有一个 API,但它对细节有点了解访问维基内容。 我们并不真正关心页面过去的修订(只关心内容、链接和图像/附件),因此不清楚 API 是否能让我们比使用 wget 或其他东西抓取 FB wiki,以及使用 HTML 和来自那里的图像/附件。

Confluence 有一个功能相当齐全的内容导入实用程序,支持多种源 wiki:

  • TWiki
  • PmWiki
  • DokuWiki
  • Mediawiki
  • MoinMoin
  • Jotspot
  • Tikiwiki
  • Jspwiki
  • Sharepoint
  • SWiki
  • Vqwiki
  • XWiki
  • Trac

那里没有 FogBugz 选项,但如果我们可以将 FogBugz wiki 内容导出到上述 wiki 之一,那么我们可以从那里使用 Confluence 多 wiki 导入器。

或者,我们可以使用 wget 抓取 FogBugz wiki 内容,然后找到一种方法将静态 HTML + 图像 + 附件放入 Confluence 或上述其他 wiki 之一中,作为 Confluence 的垫脚石。

想法?

We have a FogBugz 6 installation, with a good deal of wiki content in place. We're transitioning to use Atlassian products (JIRA and Confluence), so we'd like to get that wiki content into Confluence. How would you approach this?

Unfortunately, FogBugz doesn't appear to provide any kind of wiki export functionality, and Confluence doesn't provide any FogBugz wiki import.

FogBugz does have an API, but its a little light on the details w.r.t. accessing wiki content. We don't really care about past revisions of pages (just content, links, and images/attachments), so it's not clear that the API gets us any further than scraping the FB wikis with wget or something, and working with the HTML and images/attachments from there.

Confluence has a pretty full-featured content import utility that supports a number of source wikis:

  • TWiki
  • PmWiki
  • DokuWiki
  • Mediawiki
  • MoinMoin
  • Jotspot
  • Tikiwiki
  • Jspwiki
  • Sharepoint
  • SWiki
  • Vqwiki
  • XWiki
  • Trac

No FogBugz option there, but if we could export the FogBugz wiki content into one of the above wikis, then we could likely use the Confluence multi-wiki importer from there.

Alternatively, we could use wget to scrape the FogBugz wiki content, and then find a way to get static HTML + images + attachments into either Confluence or into one of the above other wikis as a stepping stone to Confluence.

Thoughts?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

深海蓝天 2024-07-26 17:51:51

一位同事最终解决了这个问题,并且该过程最终普遍适用于我们也想引入 Confluence 的其他 Web 内容。 概括地说,该过程涉及:

  1. 使用 wget 从 FogBugz 中提取所有内容(进行配置,以便正确下载图像和附件,并且正确地关联到它们和其他页面的链接)。
  2. 使用简单的 XSLT 转换来去除每个页面主体周围的“模板”内容(例如徽标、控制/导航链接等)。
  3. (可选)使用 perl 模块< /a> 将生成的 HTML 片段转换为 Confluence 的标记格式
  4. 使用 Confluence 命令行接口来推送所有页面、图像和附件数据。

请注意,我在上面#3 中说的是“可选”。 这是因为 Confluence CLI 有两个相关选项:它可以用于直接创建新页面,在这种情况下它已经需要 Confluence 标记,或者它可以用于使用 HTML 创建新页面,它会将其转换为 Confluence 标记本身。 在某些情况下,Confluence CLI 可以很好地转换 HTML; 对于其他数据源,我们需要使用 perl 模块。

A colleague ended up figuring this one out, and the process ended up being generally-applicable to other web content we wanted to pull into Confluence as well. In broad strokes, the process involved:

  1. Using wget to suck all of the content out of FogBugz (configured so that images and attachments were downloaded properly, and links to them and to other pages were properly relativized).
  2. Using a simple XSLT transform to strip away the "template" content (e.g. logos, control/navigation links, etc) that surrounded the body of each page.
  3. (optionally) Using a perl module to convert the resulting HTML fragments into Confluence's markup format
  4. Using the Confluence command line interface to push up all of the page, image, and attachment data.

Note that I said "optionally" in #3 above. That is because the Confluence CLI has two relevant options: it can be used to create new pages directly, in which case it's expecting Confluence markup already, or it can be used to create new pages using HTML, which it converts to Confluence markup itself. In some cases, the Confluence CLI converted the HTML just fine; for other data sources, we needed to use the perl module.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文