Vous n'êtes pas identifié(e).
- Contributions : Récentes | Sans réponse
#26 Re : Général » erreur du .bin pour PostgreSQL 9.1 PostGIS 1.5 » 24/11/2011 10:11:11
Il ne manquerait pas une question ?
La question est comment puis je resoudre cette erreur ?
Des .Bin ont t'il deja été installé avac la kubuntu a partir de la version postgres 9
Est t'il preferable que j'installe debian ?
Merci
#27 Général » erreur du .bin pour PostgreSQL 9.1 PostGIS 1.5 » 23/11/2011 21:27:50
- mich30
- Réponses : 6
testé sur 2 machines
la premiere avec kubuntu version 9
at la seconde machine avec la version 11
lorsque je lance le .bin et que je coche postgis une erreur apparait
L'installation de PostGIS 1.5 for PostgreSQL 9.1 a renvoyé une erreur.
Cliquer sur le bouton « OK » pour ignorer cette erreur et continuer avec le reste des installations. Cliquer sur « Annuler » pour annuler le reste.
Notez qu'ignorer cette erreur pourrait résulter en des échecs des installations suivantes qui pourraient dépendre de ce paquet.
merci
#28 Re : Général » demarrage de postgres sous debian » 29/06/2011 16:16:26
ah ces docs !!
merci
#29 Re : Général » demarrage de postgres sous debian » 29/06/2011 15:04:46
dans /etc/rc0.d
j'ai un K20postgresql-9.0
est ce sript qui lance postgres au demarrage?
merci
#30 Général » demarrage de postgres sous debian » 29/06/2011 14:56:21
- mich30
- Réponses : 4
Bonjour,
mon data est monté en NFS sur un nas (je sais que ce n'est pas recommandé , merci JP )
Lorsque ma debian demarre il met mets un message d'erreur
sh /user/donnees_pg/pgeom/data/pg_log/startup.log
(il ne trouve pas startup.log)
(j'ai l'impression que mes montages qui sont dans /etc/fstab ne se monte pas et il sort cet erreur )
pour verifier j'aimerais desactiver le demarrage auto de postgres
et le faire manuellement avec un
cd /etc/init.d
./postgresql-9.0 start
pour la lancement auto de postgres ou est ce?
je suis aller dans /etc/rc.local je n'ai rien vu
Merci
#31 Re : Général » ./oid2name -d eco -U postgres -f 4441919 ne trouve pas le filenode ou » 21/06/2011 10:50:50
j'ai supprimer les filenode orphelins (avec oid2name ou aucune table ets référencé ) et cela marche
merci
#32 Re : Général » ./oid2name -d eco -U postgres -f 4441919 ne trouve pas le filenode ou » 15/06/2011 10:15:29
malheureusement non on est toujours a 7 giga d'espace libre
la create table myschema.infoparc_sample n'a jamais été crée ce qui est normal
Cette requete a pris tout l'espace disque .
Il faudrez peut etre forcer le bgwriter pour qu'il nettoie mais comment ?
ou autre solution , le probleme est vraiment pointu !
merci d'avance
#33 Re : Général » ./oid2name -d eco -U postgres -f 4441919 ne trouve pas le filenode ou » 14/06/2011 17:28:28
drop table myschema.infoparc_sample ;
create table myschema.infoparc_sample as
select a.id_parc,a.the_geom,X(a.centroide),Y(a.centroide),b.distvill, b.drp, b.drs, b.dgare,b.dzconst, b.dsurf_eau , c.dist_bat_majic, d.dist_bat_pci,e.dr
from infoparc2010.infop_dist as a
left join
myschema.distance as b on (a.id_parc=b.id_parc)
left join myschema.distance_majic as c on (a.id_parc=c.id_parc)
left join myschema.distance_pci as d on (a.id_parc=d.id_parc)
left join myschema.distance_chemin as e on (a.id_parc=d.id_parc)--- erreur était ici sur d.id_parc au lieu de e.id_parc --> ce qui a conduit à un table gigantesque (la table infoparc2010.infop_dist contient 250 000 obs)
where substr(a.id_parc,1,5) in (select id_insee from myschema.sample1_com);
#34 Re : Général » ./oid2name -d eco -U postgres -f 4441919 ne trouve pas le filenode ou » 14/06/2011 13:17:06
c'est une requete avec une mauvaise jointure sur une autre table encapsulé dans un create table qui ne sait jamais fait
merci
#35 Re : Général » ./oid2name -d eco -U postgres -f 4441919 ne trouve pas le filenode ou » 14/06/2011 12:03:04
c'est une mauvaise requete qui s'est passé confirmation à ce jour , toujours 900 giga de plein
est ce que ces valeurs
shared_buffers = 512MB
fsync = on
synchronous_commit = off
wal_writer_delay = 2000ms
checkpoint_segments = 20
checkpoint_timeout = 1min
checkpoint_completion_target = 0.8
checkpoint_warning = 1min
bgwriter_delay = 10ms
bgwriter_lru_maxpages = 1000
bgwriter_lru_multiplier = 10
peuvent resoudre mon probleme??
#36 Re : Général » ./oid2name -d eco -U postgres -f 4441919 ne trouve pas le filenode ou » 09/06/2011 17:58:41
a ce soir j'ai regardé la taille schemas, des tables, des index < 200 giga
et dans mon data \base\72952 j'ai 900 giga donc espace libre de mon mountage de 8 giga
les filenode sont entassé dans ce repertoire a coup de 1giga ( donc au total 900 giga)
j'ai fait un vacuum rien n'y fait , le bgwriter y a longtemps qu'il aurait fait le menage !!
une piste ???? merci
#37 Re : Général » c'est postgres ou debian linux qui joue avec mes nerfs ? » 09/06/2011 16:39:11
ok pardon ne serait pas sshmax que j'ai modifié a 20 giga
merci
#38 Général » c'est postgres ou debian linux qui joue avec mes nerfs ? » 09/06/2011 16:09:49
- mich30
- Réponses : 4
Bonjour,
je lance un vaccum avec 20 giga d'espace libre , je n'ai plus d'espace libre
je redemarre linux debian
je fais un df -h toujours a O%
je fais un demarrage de postgres il ne veut pas, donc postgres arrété
j'attends ........ quelques minutes
postgres est toujours arrete je refais un df -h je recupere 13 giga
y a t'il un demon en tache de fond que postgres utilise meme si postgres n'est pas demarré ?
Merci
#39 Re : Général » ./oid2name -d eco -U postgres -f 4441919 ne trouve pas le filenode ou » 09/06/2011 09:54:16
bon je comprends plus ces filenode ne sont pas referencés dans pg_class
et ca fait un jour qu'ils sont dans dans ce repertoire cela me sature mon espace disque
comment puis je faire ?
merci
#41 Général » vacuum full me prends de l'espace disque » 08/06/2011 22:09:31
- mich30
- Réponses : 1
Bonsoir,
je suis en train de faire un vacuum full
mais le vaccum me prends de l'espace disque
et je suis a o%
comment faire ?
merci
#42 Re : Général » ./oid2name -d eco -U postgres -f 4441919 ne trouve pas le filenode ou » 08/06/2011 21:50:27
mercii mais le probleme et que j'ai beaucoup de fichiers filenode "orphelins" de 1 giga
c'est une requete geometrique qui s'est mal passé et cela sature la base de données .
Quand postgres va les enlever ? comment ? avec autovaccum a on ?
Avez vous une doc sur ce type de probleme
merci
#43 Général » ./oid2name -d eco -U postgres -f 4441919 ne trouve pas le filenode ou » 08/06/2011 16:26:15
- mich30
- Réponses : 13
bonjour,
j'ai un fichier 4441919 (1giga) dans data/base/72952 quand je fais
./oid2name -d eco -U postgres -f 4441919
il ne le trouve pas , surement car j'ai une grosse requete qui s'est mal passé
Puis je supprimer ce fichier
Sinon comme Faut t'il gerer les filenode orphelins ?
merci
#44 Re : Général » repertoire data/base/27572 plein !??? » 08/06/2011 15:38:12
parfois avec oi2dname il me renvoie aucun nom de table
comme supprimer les filenode obsoletes (orphelin)
merci
#45 Re : Général » repertoire data/base/27572 plein !??? » 08/06/2011 14:39:05
mes tables crées par les utilisateurs n'ont pas de probleme 150 giga
si je fais SELECT pg_database_size('base'); j'ai 950 giga
a priori j'ai regardé avec oi2dname au niveau filenode il me renvoie comme table pg_toast_2604_index
c'est les pg_toast qui me prenne de la place comment on fait pour liberer de l'espace ?
#46 Re : Général » repertoire data/base/27572 plein !??? » 08/06/2011 10:14:34
je ne comprends pas je fais
sELECT schemaname as schema ,tablename as table,
pg_total_relation_size(schemaname||'.'||tablename) as size,
tableowner from
pg_tables order by size desc;
et la table la plus importante est de 7 giga
je fais la somme en taille de toutes les tables je trouve 106 giga
quand je fais SELECT pg_database_size('base'); 950 giga
donc y a pas une table temporaire , une table systeme qui est elevé en taille ???
quand une requete se passe mal avec un create table , les données sont mis surement
au prealable dans une zone tampon et on me dit que si ca se passe mal
postgres supprime automatiquement cette memoire cache
merci
#47 Général » repertoire data/base/27572 plein !??? » 07/06/2011 21:38:22
- mich30
- Réponses : 6
Bonsoir,
Ma base de données postgres est de 150 giga ,.
le data se trouve sur un NAS qui fait 950 giga .
Mes dumps font 30 giga .
Ce soir le nas etait plein 950 giga , donc la base postgres
ne repondait plus espace libre a O%
Donc j'ai supprimé mes dumps ce qui m'a fait 20 giga de libre.
J'ai pu redemarré postgres ( en redemarrant la machine linux)
j'ai verifié la taille de mes tables , le tout fait 150 giga , donc je ne comprenais pas.
J'ai regardé dans le repertoire base , il existe un repertoire qui s'appelle 27522 ( qui fait 920 giga !!!)
dans ce repertoire il y avait plein de fichier qui font 1giga chacun .
j'ai regardé dans les logs il y a une requete de distance qui s'est mal passé la nuit .
Pourtant mon autovaccum est a ON .
pourquoi ces fichiers dans base sont crées par tranche de 1 giga .
y a t'il une valeur a diminuer dans postgres.conf ????
Par quelle etape dois je commencer pour trouver ce probleme
Grand merci
#48 Re : Général » blocage pg_dump et pg_dump_all » 30/05/2011 16:08:12
ok merci
#49 Re : Général » blocage pg_dump et pg_dump_all » 30/05/2011 15:57:21
1)
donc il vaut mieux faire
create table t1
puis faire des inserts de la grosse table vers t1
plutot
que
create table matablet1 as select * from grossetable
2)
j'ai le autovacum a on ce n'est pas genant ?
merci
#50 Re : Général » blocage pg_dump et pg_dump_all » 30/05/2011 11:55:29
comment puis je contourner ???
existe t'il une commande qui annule toutes les transactions
(requete en cours des utilisateurs )
de tous le utilisateurs afin que le pg_dump puisse se lancer automatiquement ?
Comment font les autres utilisateurs qui sauvegarde a 3 heures du matin mais
un utilisateur a lancer une une grosse requete qui est en train de tourner ?
merci