Mir fiele momentan nur ein, dass ich schon lange mal ein Buch über Präzision schreiben wollte. Was soll das heißen, mir fiele ein?
Hast du keine präzise Vorgabe, weißt du gar nicht genau, was du machen willst?
Wenn das so ist, also wenn VOR der Suchaktion mehrere feststehende Suchpatterns gegeben sind, dann hat die ganze Diskussion einfach wenig Sinn: du kannst ohne Probleme auch 100GB Daten verarbeiten - weil du beim Suchen einfach alles überlesen kannst, was dich nicht interessiert.
Schon klar, aber Vorsicht: wenn du ATG und TGC suchst, dann musst du in ATGC zwei Treffer vermerken etc. Soweit ich weiß, kommen solche Überlappungen und Shifts im Genom tatsächlich vor.
[quote=Oneric;112661]Also, unabhängig vom letztlich verwendeten Such-Algorithmus, würde ich sagen, dass sich
ein RandomAccesFile, für besonders große Texte lohnt, die das LImit des Hauptspeicher durchaus sprengen könnte, dafür muss man dann aber auf Parallelisierung o.ä. verzichten (wahrscheinlich langsamer)[/quote]
Quatsch, du brauchst einen Byte-Inputstream und liest einfach vorwärts. Wozu ein Random Access File???
Ich vermute mal, deine Quelldatei enthält einfach nur Bytes, und zwar 4 verschiedene? Mehr brauchst du ja nicht?