Asynchrone Datenbankabfarge SQLite!?
-
@RHBaum
Er will aber nicht asynchron, er will "fast first row".
Und ja, Index auf TimeStamp wird hier Wunder wirken.NullbockException schrieb:
Aber wenn ich einfach nur die Daten von oben nach unten lesen möchte und ich die Datensätze so asynchron lesen (wie sie abgelegt wurden).
Gäbe es so ne Möglihckeit, oder soll ich das ganz schnell wieder vergessen!?;)
Ja, es gäbe da die Möglichkeit das "ORDER BY" wegzulassen
-
hustbaer schrieb:
Ja, es gäbe da die Möglichkeit das "ORDER BY" wegzulassen
Ich bezweifel, dass ein SELECT ohne ORDER BY stets die Reihenfolge liefert "wie sie abgelegt wurden".
-
Wenn der Primärschlüssel aufsteigend ist, dann kannst du auch ein Order By auf diesen machen. Der ist zumindest schon ein Index.
-
Jockelx schrieb:
hustbaer schrieb:
Ja, es gäbe da die Möglichkeit das "ORDER BY" wegzulassen
Ich bezweifel, dass ein SELECT ohne ORDER BY stets die Reihenfolge liefert "wie sie abgelegt wurden".
Ja eh aber darum gehts ihm ja nicht.
Er will doch bloss dass das Ergebnis nicht dadurch verzögert wird dass der SQLite sortieren muss. Und das erreicht er in diesem Fall in dem er einfach das ORDER BY weglässt.
-
ich vermute, dass er außerdem auch noch möchte, dass nicht alle datensätze auf einmal übertragen werden müssen.
also, wenn er insgesamt 500T datensätze ausliest, dann soll die ausgabe schon starten, wenn 1000 empfangen wurden.
ich kenne da nur die möglichkeit, dass man die query entsprechend formuliert, dass sie immer nur häppchen liefert.
-
@jenz
Er.
SQLite ist eine Library, da wird gar nichts übertragen.Und ich kenne das (bei Client/Server Systemen) nur so, dass das "häppchenweise" automatisch ohne irgendwelche speziellen Optionen/... passiert - so bald sich die Query halt dafür eignet.
-
hm, dann muss ich umformulieren.
ich kenne die lib jetzt nicht genau.
aber ich vermute, dass man eine query öffnen kann.
nach dem öffnen stehen dann sofort alle 500T einträge zur verfügung.
das öffnen hat die 500T einträge also alle zusammengesammelt und kehrt erst dann zurück.dabei wäre nach 1000 einträgen zurückzukehren viel früher passiert.
deshalb wahrscheinlich auch die formulierung asynchrone datenbankabfrage...
das macht da nämlich schon sinn.j
-
jenz schrieb:
hm, dann muss ich umformulieren.
ich kenne die lib jetzt nicht genau.
du kennst anscheinend nicht wirklich viele DB libs... ?
aber ich vermute, dass man eine query öffnen kann.
bis hierher noch korrekt.
nach dem öffnen stehen dann sofort alle 500T einträge zur verfügung.
das öffnen hat die 500T einträge also alle zusammengesammelt und kehrt erst dann zurück.nein und nein.
wäre mmn. auch ziemlich bekloppt das als einzige möglichkeit anzubieten.als ergebnis des "query öffnens" bekommst du nen cursor.
den cursor kannst du lustig vor-/zurückspulen (bzw. forward-only cursor eben nur vor). und dann halt immer die werte der aktuellen zeile abfragen.das ist bei jedem datenbank-interface das ich kenne so, und auch bei SQLite. (manchmal gibt es hilfsfunktionen die gleich das ganze ergebnis einlesen und ein array o.ä. zurückgeben, aber die basis-funktionen sind eigentlich immer cursor-basiert.)
deshalb wahrscheinlich auch die formulierung asynchrone datenbankabfrage...
das macht da nämlich schon sinn.für mich macht das keinen sinn.
die funktionen die er aufruft sind doch weiterhin immer synchron.
und je nach datenbank/library läuft da auch im hintergrund nix asynchron.
ne typische DBase library wird hier z.b. keine threads verwenden, sondern einfach beim "eine zeile vor" aufruf den nächsten datensatz lesen.
-
na dann wollte der gute bestimmt einfach einen hinweis auf cursor-funktionen.
und ja, die cursor sind genau das richtige dafür.
welche lib benutzt denn direkt einen cursor?
bei mysql "C API Function Descriptions" transportiert mysql_stor_result zum beispiel auch alles auf einmal zum client.bei postgres macht es PQexec genauso.
aber ich habe auch gesehen, dass es bei sqlite anders ist
ich gehe dann mal in mich und ein wenig lesenj
-
> welche lib benutzt denn direkt einen cursor?
ODBC, OLEDB, ADODB...
mag sein dass das eine MS-eigenart ist.> bei mysql "C API Function Descriptions" transportiert mysql_stor_result zum beispiel auch alles auf einmal zum client.
bei mysql kannst du
mysql_use_result
+mysql_fetch_row
verwenden um zeilenweise zu lesen.ich meine auch dass fast jede API irgend eine möglichkeit dafür anbieten muss - sonst wäre es ja ziemlich doof wenn man grosse result-sets auf clients mit beschränktem RAM hat.
oder eben fälle wie den des OP, wo das programm irgendwann entscheidet dass es die restlichen datensätze gar nicht mehr braucht.
(idealerweise würde man die bedingung in die query mit einbauen, aber manchmal ist es effizienter bestimmte dinge in der applikation zu machen)