Vous n'êtes pas identifié(e).

#1 Général » CTE PostgreSQL 12.3 » 30/09/2020 12:02:03

Indaa
Réponses : 1

Bonjour,

Je prévois de passer sous PostgreSQL 12 bientôt, néanmoins mon application possède énormément de CTE,
Est ce que PostgreSQL à prévu un moyen simple de revoir la syntaxe des CTE une fois passé en PostgreSQL 12 afin de garder son comportement initial ?
Ou bien est ce que je vais devoir rajouter "MATERIALIZED" à la main pour chaque CTE de mon code ?

Merci

#2 Général » Pg_toast error pendant pg_upgrade » 11/08/2020 16:11:59

Indaa
Réponses : 2

Bonjour,

J'aimerai savoir si quelqu'un a une explication à mon problème :
Cette erreur survient lors d'une tentative d'upgrade de pg9.5 vers pg12 via pg_upgrade et le link mode.

Ci-dessous mon erreur :  

 Linking user relation files
No match found in new cluster for old relation with OID 16619 in database "my_database": "pg_toast.pg_toast_2613" which is the TOAST table for "pg_catalog.pg_largeobject"
No match found in new cluster for old relation with OID 16621 in database "my_database": "pg_toast.pg_toast_2613_index" which is an index on "pg_toast.pg_toast_2613" which is the TOAST table for "pg_catalog.pg_largeobject" 

Merci

#3 Général » Question à propos de template 1 » 27/04/2020 11:29:52

Indaa
Réponses : 1

Bonjour,

Sauf erreur de ma part initdb initialise la locale et l'encodage de jeu de caractères par défaut du cluster en se basant sur template 1

Ma question est la suivante :

Est ce que les valeurs des paramètre  LC_COLLATE et LC_CTYPE du template 1 seront toujours les mêmes lors d'un initdb ?
ou bien peux  ton trouver des valeurs différentes en fonctions de l'installation (rds,sqlcloud,distribution...) ?

Merci

#4 Re : Réplication » Un slave peut-il impacter son Master » 13/08/2019 14:50:28

Merci Messieurs pour vos réponses !

Marc votre explication à surement du sens, en effet ma base à fait un bon de 15 GB depuis que le SELECT avait été lancé sur le slave
Ce qui prouve peut être que les vacuum ne passaient pas et que du bloat s'est installé affectant peut être les perf de la base

#5 Réplication » Un slave peut-il impacter son Master » 13/08/2019 11:23:20

Indaa
Réponses : 3

Bonjour,

J'aurai voulu savoir si un slave peut impacter les performances de son Master ?
Mon master étant surchargé depuis plusieurs jour je viens tout juste de me rendre compte qu'une requête SELECT était en cours sur le slave depuis plusieurs jours
Mais une fois la requête cancel sur le slave, la Master reste toujours chargé.

Pour infos :
archive_command = 'AWS_REGION=eu-west-1 wal-e --s3-prefix s3://bucket --aws-instance-profile wal-push %p'
wal_level =hot_standby
archive_mode = on
hot_standby = on


Merci

#6 Re : Général » Reset stats database » 31/05/2019 15:21:08

Malheureusement personne n'a exécuté de pg_stat_reset !
Donc est ce que postgresql peut reset ses stats autrement que par l'utilisation de pg_stat_reset ??

Merci

#7 Général » Reset stats database » 31/05/2019 14:54:34

Indaa
Réponses : 3

Bonjour,

Je viens de remarquer un reset de stats sur ma base postgres (à 01:00) et ma base en production (à 20h14),

J'aurai voulu comprendre le pourquoi mes 2 bases ont été reset !  Pour information il y a eu intervention sur la base "ma_base_prod_db" avec un pg_terminate_backend à 20h14  ( heure du reset )


SELECT datname, stats_reset from pg_stat_database;
  datname  |          stats_reset         
-----------+-------------------------------
ma_base_prod_db | 2019-05-29 20:14:55
template0 |
postgres  | 2019-05-30 01:00:01
template1 |
(4 rows)


Merci à vous

#8 Général » Nombre de lock pendant une transaction » 21/03/2019 19:32:14

Indaa
Réponses : 1

Bonjour,

J'aurai voulu savoir s'il y avait un moyen simple de savoir le nombre de lock effectué dans une transaction ?

Merci

#9 Général » Tuning vacuum full » 20/07/2018 14:12:44

Indaa
Réponses : 1

Bonjour ,


Je dois faire un vacuum full sur la table pg_largeobject , après un premier test il a mit plus de 8h.


J'aimerai savoir quels peuvent être les paramètres de conf postgresql à modifier pour accélérer le temps de ce vacuum !


Contexte :
Juste le vacuum full de pg_largeobject  tournera sur la base,  la table contient 500 millions de live tuples et plus d'un milliard de dead rows.
maintenance_work_mem='2GB'



Machine :
CPU Intel(R) Xeon(R) CPU E5-2686 v4 @ 2.30GHz (16 threads) -- 64 Go RAM



Merci

#10 Re : Général » Delete too long » 18/07/2018 10:31:24

Merci Guillaume,

Du coup le jour J j'aimerai :
- cancel cet autovacuum qui tourne depuis très longtemps
- delete les rows de ma table "table_lob"
- Puis lancer un Vacuumfull sur pg_largeobjet

J'aimerai savoir si tu as une solution pour empêcher un autovacuum(prevent wraparound) de se déclancher ???

Merci

#11 Général » Delete too long » 17/07/2018 18:32:53

Indaa
Réponses : 3

Bonjour,

J'ai testé la suppression de 35k rows sur une table "table_lob" , résultat 3h30 !!! c'est vraiment trop long et j'aimerai comprendre pourquoi  smile

Le contexte :

- Sur la table "table_lob" il y a un trigger qui fait :  AFTER DELETE ON table_lob FOR EACH ROW EXECUTE PROCEDURE delete_lo()
- Un autovaccum (prevent wraparound) en cours sur la table pg_largeobjet

Je pense que le trigger y est pour quelques chose , et j'aimerai savoir si l'autovacuum sur pg_largeobject a aussi des conséquences sur le temps du Delete ?
Je suis aussi ouvert à toute proposition pour améliorer mon temps de suppression.

Merci d'avance

#12 Re : Général » Petites questions sur VACUUMFULL/autovacuum(to prevent wrap) (9.4) » 10/07/2018 16:22:27

Je viens de tester de lancer un VACUUMFULL pendant que l'autovacuum: VACUUM pg_catalog.pg_largeobject (to prevent wraparound) tourne .
Et j'ai mon vacuumfull qui est en WAITING .   
Est ce normal ? Il faut donc bien que je cancel l'autovaccum puis qu'après je lance le vacuumfull ?

#13 Général » Petites questions sur VACUUMFULL/autovacuum(to prevent wrap) (9.4) » 10/07/2018 15:32:53

Indaa
Réponses : 3

Bonjour,

Voici ma situation :

J'ai la possibilité de faire une interruption de service de plusieurs heures chez un client ,
J'aimerai donc on profiter pour faire un VACUUM FULL sur la table pg_largeobjet : 4 To  dont 700 gigas de données ....

J'ai actuellement un autovacuum: VACUUM pg_catalog.pg_largeobject (to prevent wraparound) qui tourne depuis plusieurs mois ..


Première question : Y'a t-il un risque à cancel l'autovacuum: VACUUM pg_catalog.pg_largeobject (to prevent wraparound) ? afin que je puisse lancer mon VACUUMFULL

Deuxième question : Comment faire pour que l'autovacuum  (to prevent wraparound) ne s'active pas entre le moment ou je vais le cancel et le moment ou je lancerai mon VACUUMFULL (j'ai cru comprendre que meme avec autovacuum off il s'activait)

En espérant avoir été suffisamment clair .

Merci

#15 Général » Petites questions sur psql -c » 28/05/2018 11:16:53

Indaa
Réponses : 3

Bonjour,

J'aurai une petite question concernant la commande psql -c :

Voici un script utilisé sur ma machine locale version 9.6 :
for row in $schema_table; do
  psql -At $database -c "set statement_timeout = 20000;" -c "ANALYZE $row; -- anal_all_tables.sh cron" || true
done

Résultat :
SET
ANALYZE
SET
ANALYZE
SET
ANALYZE
.......


Et ce même script sur une machine "prod" version 9.5 renvoie :

ANALYZE
ANALYZE
ANALYZE
ANALYZE
ANALYZE
.....

Donc sur ma machine local (9.6) le set statement_timeout = 20000 est bien prit en compte ,
alors que sur la machine "prod" il n'est pas prit en compte.

J'aimerai comprendre le cause de se problème , est ce que la version postgresql joue un role ? ou bien est un changement de conf qui influe psql sur la machine prod !

Merci !!!!

#17 Général » Petites questions sur VACUUMFULL » 04/05/2018 15:04:58

Indaa
Réponses : 5

Bonjour ,


J'ai actuellement une table pg_largeobject qui fait 3.5 Teraoctet dont 2.5 Teraoctect de bloat et 1 Tera de livetuples !

Petite question technique :

Aujourd'hui je pense qu'un vacuumfull sur cette table mettrait plusieurs jours, mais j'aimerai savoir si le fait de supprimer une grande partie des livetuples diminurait le temps de ce vacuumfull ???


Merci

#18 Général » Petites questions sur VACUUMFULL » 04/05/2018 15:04:52

Indaa
Réponses : 1

Bonjour ,


J'ai actuellement une table pg_largeobject qui fait 3.5 Teraoctet dont 2.5 Teraoctect de bloat et 1 Tera de livetuples !

Petite question technique :

Aujourd'hui je pense qu'un vacuumfull sur cette table mettrait plusieurs jours, mais j'aimerai savoir si le fait de supprimer une grande partie des livetuples diminurait le temps de ce vacuumfull ???


Merci

#19 Re : Optimisation » épuration pg_largeobject » 25/01/2018 19:09:40

Bonjour ,

e.papet avez vous des nouvelles concernant votre problème ?

Cela m’intéresse énormément.

Merci

#21 Général » Conflit AccessShare et AccessExclusive ! Possibilité de "forcer" ? » 12/12/2017 17:13:32

Indaa
Réponses : 2

Bonjour,

Voici ma situation :

J'ai une table "toto" qui reçoit des select H24 , (Access share)
J'aimerai pouvoir faire sur cette même table  :   ALTER TABLE toto add column test1 varchar(10);    (Access exclusif)

Mes problèmes sont que Access share et Access exclusive sont en conflit et je ne peux donc pas effectuer mon ALTER TABLE tant que le SELECT n'a pas commit et de plus mon ALTER TABLE (qui est en attente) bloque les SELECT suivants.

Existe - il aujourd'hui une astuce pour "forcer" cet ALTER TABLE malgré le conflit des locks ou bien dois je trouver le moment idéal ( nuit ) pour effectuer ce DDL.

En espérant avoir été claire ..

Merci

#22 Général » Besoin d'aide pour mon Mémoire PostgreSQL » 21/06/2017 16:03:47

Indaa
Réponses : 0

Bonjour ,

Dans le cadre de mon Master je réalise un mémoire sur la supervision Open Source de PostgreSQL

J'ai déjà effectué une comparaison des outils suivants : POWA, OPM, pg_cluu, pgObserver, pgBadger, py_munin, pg_activity, pg_view, pgcenter, pgstats, pgwatch2 et pgHero

Le but de ce mémoire est de réussir à définir les meilleurs combinaison d'outils de supervision Open Source PostgreSQL en fonction de l'existant , des critères d'évaluation et des besoins d'une entreprise.
J'aimerai pouvoir créer une table de paramétrage (Un peu à la SAP avec son ERP) qui d'après l'existant et les besoins d'une entreprise me sortirait une combinaison d'outils correspondant aux attentes de cette entreprise.

Si vous avez 5 min je vous invite à répondre à mon questionnaire :
https://goo.gl/forms/tAZdz2GGNjuEdOk93

De plus je serai ravis d'échanger avec l'autre d'entre vous si vous avez déjà utilisé l'un de ces outils .

Merci d'avance .

#23 Re : Général » PgBadger problème CSV » 25/08/2015 10:38:59

Problème résolu smile

Merci Messieurs ,

Bonne journée !

#24 Re : Général » PgBadger problème CSV » 24/08/2015 18:54:48

Bonsoir ,
Merci pour vos réponses ,

Avez des recommendations pour l'installation sur ubuntu ?
A quel endroit ? la commande ?

Merci

#25 Général » PgBadger problème CSV » 24/08/2015 17:04:25

Indaa
Réponses : 5

Bonjour tout le monde ,

Je viens d'installer PgBadger sur une VM Ubuntu et mon maître d'apprentissage me demande de générer un fichier html afin d'optimiser des requêtes à l'avenir .

Mon problème est que le fichier log que j'ai reçu de ça part est en CSV et que la commande de base ne passe pas du fait de son format ,
Ça me retourne donc une erreur "Can't locate Text/CSV_XS.pm ......."

Je pense que la solution se trouve ici : https://github.com/dalibo/pgbadger/tree/master/tools
Mais je ne vois pas comment faire pour installer ce "tools" .

Merci d'avance et bonne journée .


Ps : désolé si je ne suis pas dans la bonne rubrique je viens tout juste de m'inscrire .

Pied de page des forums

Propulsé par FluxBB