iOS4 中预填充存储的数据

发布于 2024-11-26 05:13:32 字数 179 浏览 1 评论 0原文

我使用 iPhone iOS 4.3。

在我的项目中,我需要一个只读的、重新填充的数据表(例如具有 20 行和 20 个字段的表)。

该数据必须通过行上的键来获取。

什么是更好的方法? CoreData Archive、SQLite 还是其他?我该如何准备和存储这张桌子?

谢谢。

I work with iPhone iOS 4.3.

In my project I need a read-only, repopulated table of data (say a table with 20 rows and 20 fields).

This data has to be fetched by key on the row.

What is better approach? CoreData Archives, SQLite, or other? And how can I prepare and store this table?

Thank you.

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(3

入怼 2024-12-03 05:13:32

我会为此使用核心数据。缺点:您必须编写一个程序(桌面或 iOS)来填充持久存储。

如何使用预填充商店,您应该查看苹果的食谱示例代码。

I would use core data for that. Drawback: You have to write a program (Desktop or iOS) to populate the persistent store.

How to use a pre-populated store, you should have a look into the Recipes sample code at apple's.

雨后彩虹 2024-12-03 05:13:32

最简单的方法是使用 NSDictionary 对象的 NSArray,然后将该数组作为 plist 保存到磁盘。将 plist 包含在您的构建中,然后在运行时从应用程序包中以只读方式打开它。

每个“行”将是数组的元素索引,该数组将返回一个字典对象,其中每个“列”将是一个键值对。

The simplest approach would be to use an NSArray of NSDictionary objects and then save the array to disk as a plist. Include the plist in your build and then open it read only from the app bundle at runtime.

Each "row" would be the element index of the array which would return a dictionary object wherein each "column" would be a key-value pair.

给妤﹃绝世温柔 2024-12-03 05:13:32

我用两种不同的方式完成了这件事:

  1. 将所有数据保存为 plist 中的字典,然后反序列化所有内容并在启动期间将其加载到应用程序中
  2. 在开发过程中创建一个程序来填充核心数据数据库。将该数据库保存到应用程序包中,然后在应用程序启动期间将数据库复制到文档文件夹中以用作持久存储

这两个选项都相对简单,如果您的初始数据需求变得非常大,它也被证明是性能最佳的我。

I've done this 2 different ways:

  1. Saved all my data as dictionaries in a plist, then deserialized everything and loaded it into the app during startup
  2. Created a program during development that populates the Core Data db. Save that db to the app bundle, then copy the db during app startup into the Documents folder for use as the Persistent Store

Both options are relatively easy, and if your initial data requirements get very large, it's also proven to be the most performant for me.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文