Informatica。我有5个会议的工作流程。如何限制每个会话的行和第二次限制如何选择不同的记录?

发布于 2025-02-04 06:08:39 字数 715 浏览 2 评论 0原文

我有一个平面文件(.CSV)作为带有两个字段的源。我有5个会议的工作流程。每个会话应选择200个记录和总共1000个记录,已更新为Web服务。在第二次运行中,它应该从1001到2000年选择记录,在这里我提供样本计数。我们如何限制每个会话中的行以及如何从第一次运行中选择不同的记录。

wf_start time-> session1(flatfile)-->s2,s3,s4,s5,s6(concurrent sessions)

Concurrent session mapping:

“限制行的过滤条件”

是否有一种方法可以在第二个工作流程中的同一文件中从同一文件中获取另一组1000个记录?

是否可以在我们可以配置的下一个运行中获取另一组1000个记录?

I have a flat file (.csv) as source with two fields . I have workflow with 5 sessions . Each session should pick 200 records and total 1000 records updated to webservice. In the second run it should pick the records from 1001 to 2000 , here I am providing the sample count. How do we limit rows in each session and how to pick different records from first run.

wf_start time-> session1(flatfile)-->s2,s3,s4,s5,s6(concurrent sessions)

Concurrent session mapping:

mapping

filter condition to limit rows

Is there a way to get another set of 1000 records in the next run from same file in the second workflow run?

Is there way to fetch another set of 1000 records in the next run we can configure?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

-小熊_ 2025-02-11 06:08:39

您需要一个表来存储已经处理过的1000个。

主地图将把这个新表作为目标。它将B用作LKP和过滤器。
新表将只有主表的密钥列,而FLAG 已经处理过
您的映射会像此

Sq --> exp (lkp on newtable) --> fil ( if lookup return null- pass) --...> originalTgt
                               > Newtable 

查找一样,将在密钥列上,并且已经处理过lt;>是的。

You need a table to store the 1000rows that already processed.

Main map will have this new table as target. And it will b used as lkp and filter as well.
New table will have only key column of main table and a flag already processed.
Your mapping will b like this

Sq --> exp (lkp on newtable) --> fil ( if lookup return null- pass) --...> originalTgt
                               > Newtable 

Lookup will be on key column and already processed<> Yes.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文