English 中文(简体)
编辑大案
原标题:Editing large data files

在我可以预见到需要编辑的大量档案(主要是固定文本档案,但可以是CSV、固定-width、XML,......迄今为止)。 我需要在申请中编写编辑文件。

在试图确定一种良好的方式处理大量数据(可能属于基于性别的暴力范围)的编辑工作时,我发现Audacity能够处理大量档案。 大胆是开放的源泉,因此我认为,在这种情况下,它将为我提供出色的教学工具。 然而,我开始在通过守则的圈子里思考自己,现在我完全混淆了。

我希望这个问题有两个结果:

  1. 妥善处理这一编辑,不填满整个文件。 我想到的是,随着数据的编辑,数据按需求分类。

  2. 解释Audacity如何做到这一点。

使用C#和NET的Im,但答案不一定要与这种环境相结合。

最佳回答

几个骗局可以使编辑更加简单、更快。

  1. INDEX it for faster access. While the user is doing nothing, skim through the file and create an index so you can quickly find a specific spot in the file (see below).
  2. Only store changes the user makes. Don t try to apply them directly to the file until the user saves.
  3. Set a limit on how much to read into memory when the user jumps to a point. Read one or two screens of data initially so you can display it, and then if the user doesn t jump to a new spot immediately, read a bit before and a bit after the current spot.

Indexing:

当用户希望跳跃到X或timestamp T时,你不想绕过整个计票线的中断和特性。 数据天空,创下记录。 Say,每50条线,记录被冲抵、特性计算和行号。 这些数据可以储存在一个薄膜、树木或仅仅是一个定购清单中。 当用户在档案中跳跃时,你可以找到最接近的指数点,然后从那里读到,直到你找到所要求的点。 在与统法协会合作时,这种技术尤其有用,因为其特性可能有所不同。 如果卷宗数量如此之大,那么完整指数就能够赢得记忆,那么你可能希望限制指数点,使其更加广泛地使用,或将指数储存在临时档案中。

Editing and altering big files:

如哈维建议的那样,只储存changes in memory (作为扩散者),然后在从投入到产出时将其应用到档案中。 树木或定购清单可能是有益的,因此,你可以迅速找到下一个地方,在撰写投入到产出时,你需要改变。

如果变化太大,记忆犹如故,你可能希望在单独的临时档案中跟踪这些变化(也许与原来的文件一样)。 你们只能继续撰写一份不断变动的清单,并附上新的改动文件。 在你节省费用时,请你通过改动清单阅读,并编制一份最后的更改清单,以便在删除时间卷宗之前适用。 出于业绩原因,避免重写变更记录档案可能是有益的;相反,仅仅随时间推移,在进行储蓄时删除多余或注销的its。

有趣的事实:你用于变更日志的相同结构可用于提供“Undo/Redo”信息。

问题回答

健全的档案基本上是数据流,正确吗? 因此,你实际上不需要一劳永逸地处理整个档案。 无论在什么时候,无能为力的使用者只能与该大案的小刀子合作。

简言之,如果你在大声档案中添加了1个二个声音,那么,在你必须储蓄时,你实际上只能处理整个档案,此时,你共翻了3个部分: 之前、之后和之后。 因此,实际需要记忆的唯一东西是第二个氮,可能是氮之前和之后的一小部分。

因此,你读到,在一定时间(如果你真的冒犯)上说,有64兆字节,在你到达插入点之前,从临时档案中删除。 之后,你将第二版刀子排出,将原始档案的剩余部分移出,关闭临时书写文件,删除原始档案,并将新档案改名为原始档案。

当然,这比这更加复杂。 例如,在储蓄之前,可能会有多个ed子和一个无菌的缓冲。 但是,我可以大力保证,根据现有的援助团数量,Audacity在无遗复杂的情况下受到限制。





相关问题
编辑大案

在我可以预见到需要编辑的大量档案(主要是固定文本档案,但可以是CSV、固定-width、XML,......迄今为止)。 我需要发展......。

How can I quickly parse large (>10GB) files?

I have to process text files 10-20GB in size of the format: field1 field2 field3 field4 field5 I would like to parse the data from each line of field2 into one of several files; the file this gets ...

gcc/g++: error when compiling large file

I have a auto-generated C++ source file, around 40 MB in size. It largely consists of push_back commands for some vectors and string constants that shall be pushed. When I try to compile this file, g+...

Is git worth for managing many files bigger than 500MB

I would put under version control a big amount of data, i.e. a directory structure (with depth<=5) with hundreds files with size about 500Mb). The things I need is a system that help me: - to ...

热门标签