Vous n'êtes pas identifié(e).
- Contributions : Récentes | Sans réponse
Pages : 1
#1 Re : Optimisation » Limites PostgreSQL et organisation des tables » 29/01/2009 13:37:32
On va sauvegarder dans les tables les positions des personnes, machines, etc... à des temps réguliers (de l'ordre de la seconde, minute, on ne sais pas encore). Donc au bout de quelques jours, mois, années, on obtiendra beaucoup d'enregistrements.
Si on considère un bâtiment qui contient des centaines de personnes et autant de machines, si on enregistre chaque position de chaque objet dans une seule table cela donnera une table gigantesque, sinon si on crée une table pour chaque objet, on obtient plus d'une centaines de table.
Mais il peut y avoir des requêtes du style : "afficher la position de tous les objets avant hier à telle heure" et là du coup on doit accéder à toutes les tables si on a partitionné.
On a aussi pensé à créer des tables non pas pour chaque objet mais plutôt des tables par types d'objet, ici ça nous reviendrais à deux tables (personnes, machines).
Donc qu'est-ce qui est plus performant ?
- Un nombre de tables réduites, avec les objets organisés par type, en sachant qu'il y aura beaucoup d'enregistrements dans chaque table
- Une table par objets, avec beaucoup moins d'enregistrements dans chacune d'elles, mais avec parfois des requêtes qui auront besoin d'accéder à tous les objets
#2 Optimisation » Limites PostgreSQL et organisation des tables » 29/01/2009 12:50:25
- pierrehenri
- Réponses : 3
Bonjour,
je suis en 4ème année à polytech'Nantes et pour notre projet transversal nous avons à développer une base de donnée spatiale. Nous avons donc utilisé PostGIS et pour créer l'architecture de la base nous avons plusieurs questions :
- Quelles sont les limites des tables postgre (nombre de lignes, nombre de colonnes, taille de la base) ?
- Est-il préférable (au niveau du temps d'execution des requètes) d'avoir une table contenant des millions voire des milliards d'enregistrements ou bien de fractionner cette table en plusieurs centaines (voire des milliers) de tables (en sachant que l'on devra accèder à la plupart des tables pour certaines requètes). En gros est-ce que le partitionnement de tables affecte le temps d'éxécution ?
merci d'avance
Pages : 1