Ja genau ... nicht -.-
Deshalb ja ein eigener JSON-Encoder, da der die ganze Zeit max. eine Datenbankzeile im RAM haben muss.
Und max_execution_time, wenn die auf 30 Sekunden (default) ist, dann kannste da locker 1 Mio. Zeilen rauspumpen, da das Warten nicht zur Execution-time dazuzählt. BTW: Ein SQL-Request gibt fast immer ein Cursor, kein Array zurück. Daher sind wenig große Anfragen auch effizienter als viele kleine, weil das Konzept des Cursors schon für viel ausgelegt ist.
Aber schon klar, ein schnelles fetchAll() und schon kann man wunderbar kreuz und quer durch die Ergebnisse stromern.
Und alle Datensätze hab ich nie gesagt, sondern nur, wenn der Client schon weiß, welche er wirklich braucht, dass er diese dann gleich auf einmal holt.
Ach ja: Teile und herrsche ist mal an der Stelle definitiv falsch.
Deshalb ja ein eigener JSON-Encoder, da der die ganze Zeit max. eine Datenbankzeile im RAM haben muss.
Und max_execution_time, wenn die auf 30 Sekunden (default) ist, dann kannste da locker 1 Mio. Zeilen rauspumpen, da das Warten nicht zur Execution-time dazuzählt. BTW: Ein SQL-Request gibt fast immer ein Cursor, kein Array zurück. Daher sind wenig große Anfragen auch effizienter als viele kleine, weil das Konzept des Cursors schon für viel ausgelegt ist.
Aber schon klar, ein schnelles fetchAll() und schon kann man wunderbar kreuz und quer durch die Ergebnisse stromern.
Und alle Datensätze hab ich nie gesagt, sondern nur, wenn der Client schon weiß, welche er wirklich braucht, dass er diese dann gleich auf einmal holt.
Ach ja: Teile und herrsche ist mal an der Stelle definitiv falsch.