[Trad] [svn:pgfr] r1135 - traduc/trunk/slony

admin at listes.postgresql.fr admin at listes.postgresql.fr
Jeu 11 Sep 01:09:15 CEST 2008


Author: daamien
Date: 2008-09-11 01:09:15 +0200 (Thu, 11 Sep 2008)
New Revision: 1135

Modified:
   traduc/trunk/slony/loganalysis.xml
Log:
slony : log analysis ( ?\195?\160 relire )



Modified: traduc/trunk/slony/loganalysis.xml
===================================================================
--- traduc/trunk/slony/loganalysis.xml	2008-09-09 22:58:14 UTC (rev 1134)
+++ traduc/trunk/slony/loganalysis.xml	2008-09-10 23:09:15 UTC (rev 1135)
@@ -47,7 +47,7 @@
 <sect2><title>Nom du processus </title>
 
 <para> Les notifications sont toujours précédées par le nom du processus 
-qui produit cette nottification. Vous verez des messages en provenance
+qui produit cette notification. Vous verrez des messages en provenance
 des processus suivants :  
 
 <variablelist>
@@ -57,7 +57,7 @@
 
 <varlistentry><term>remoteWorkerThread-X</term> 
 
-<listitem><para> Les processus qui traitent les événments distants. Vous verrez un de 
+<listitem><para> Les processus qui traitent les événements distants. Vous verrez un de 
 ces processus pour chaque noeud qui est en communication avec le noeud local.
 </para></listitem></varlistentry>
 
@@ -69,7 +69,7 @@
 
 <varlistentry><term>cleanupThread</term> 
 <listitem><para> Le processus qui prend en charge les opérations telles que 
-les VACUUM, le nettoyage des tables confirm and event,
+les VACUUM, le nettoyage des tables confirm et event,
 et la suppression des données périmées.</para></listitem></varlistentry>
 
 <varlistentry><term>syncThread</term> <listitem>
@@ -79,7 +79,7 @@
 </variablelist>
 </para>
 
-<para> La quantité d'information que ces processus affichent est controlée par
+<para> La quantité d'information que ces processus affichent est contrôlée par
 le paramètre <envar>log_level</envar> de &lslon;;
 Les messages de type ERROR/WARN/CONFIG/INFO seront toujours affichés,
 augmenter la valeur de 1 à 4 affichera des plus en plus de messages de DEBUG. 
@@ -121,15 +121,15 @@
 
 <listitem><para> Lancer <xref linkend="stmtstorepath"/> pour configuration les 
 voies de communications. Ceci devrait permettre aux noeuds de prendre conscience
-de l'existance de leurs voisins.</para>
+de l'existence de leurs voisins.</para>
 
-<para> Les logs de slon doivent maintenant recevoir les événéments en provenance
+<para> Les logs de slon doivent maintenant recevoir les événements en provenance
 des noeuds <quote>étrangers</quote>.</para>
 
 <para> Dans la 1.0, <xref linkend="table.sl-listen"/> n'est pas configuré
 automatiquement, donc les logs vont rester calmes tant que vous n'aurez
 pas soumit explicitement les requêtes <command>STORE LISTEN</command>.
-Dans la  version 1.1, les <quote>voies d'écoute</quote> cont configurées automatiquement,
+Dans la  version 1.1, les <quote>voies d'écoute</quote>  configurées automatiquement,
 ce qui nous donne un réseau de communication opérationnel plus rapidement.
 </para>
 
@@ -140,7 +140,7 @@
 Jusqu'à ce que les <xref linkend="slon"/> démarrent, chaque noeud
 est partiellement configuré. Si le cluster contient deux noeuds,
 alors il doit y avoir deux entrées dans chacune des trois tables
-une fois que les commnications sont correctement configurées.
+une fois que les communications sont correctement configurées.
 Si il y a moins d'entrées, vous devriez pouvoir deviner ce qui manque.
 </para>
 </listitem>
@@ -157,7 +157,7 @@
 
 <listitem> <para> Configurer l'ensemble de réplication avec
 (<xref linkend="stmtcreateset"/>), ajouter les tables avec
-(<xref linkend="stmtsetaddtable"/>), les sequences avec
+(<xref linkend="stmtsetaddtable"/>), les séquences avec
 (<xref linkend="stmtsetaddsequence"/>), puis vérifier que vous
 retrouvez des logs adéquats avec <xref linkend="logaddobjects"/> 
 uniquement dans les logs du noeud d'origine de l'ensemble de 
@@ -181,7 +181,7 @@
 <itemizedlist>
 
 <listitem><para> Sur le noeud origine, peu d'informations seront enregistrés
-dans les logs, juste des indications sur les événéments <command>SYNC</command>
+dans les logs, juste des indications sur les événements <command>SYNC</command>
 générés et confirmés par les autres noeuds. Consultez la section 
 <xref linkend="lognormalsync"/> pour plus d'informations sur les différents 
 types de lignes de logs que vous pouvez rencontrer.</para></listitem>
@@ -205,9 +205,9 @@
 certain messages de niveau <command>DEBUG4</command> qui sont presque toujours
 inintéressant.</para>
 
-<sect3 id="logshiplog"><title> Les messages de log associaté au Log Shipping </title>
+<sect3 id="logshiplog"><title> Les messages de log associés au Log Shipping </title>
 
-<para> La pluspart de ces messages concernent des erreurs qui se produisent 
+<para> La plupart de ces messages concernent des erreurs qui se produisent 
 lorsque le mécanisme de <xref linkend="logshipping"/> échoue.  En général, 
 cela se produit si le système de fichier utilisé pour le log shipping est plein,
 ou si les permissions d'un répertoire sont mal définies. </para>
@@ -227,7 +227,7 @@
 
 <para> Si &lslon; est configuré ( avec l'option <option>-x</option>
 c'est à dire <envar>command_on_logarchive</envar>) pour lancer une commande
-après chaque génération de ficheir archive log, ce message indique quand cette commande
+après chaque génération de fichier archive log, ce message indique quand cette commande
 est effectuée via la fonction <function>system()</function>. </para> </listitem>
 
 <listitem><para><command>ERROR: remoteWorkerThread_%d: Could not open
@@ -241,10 +241,10 @@
 
 <listitem><para> <command>ERROR  remoteWorkerThread_%d: "update "_slony_regress1".sl_archive_counter     set ac_num = ac_num + 1,         ac_timestamp = CURRENT_TIMESTAMP; select ac_num, ac_timestamp from "_slony_regress1".sl_archive_counter; " PGRES_FATAL_ERROR ERROR:  could not serialize access due to concurrent update</command> </para>
 
-<para> Ce message se produit occasionnelement lorsqu'on utilise le log shipping;
+<para> Ce message se produit occasionnellement lorsqu'on utilise le log shipping;
 il se produit généralement lorsque que le cluster contient 3 noeuds ou plus,
 et que le démon tente d'exécuter simultanément des événements en provenance de
-différents noeuds. Ceci ne réprésente pas un problème sérieux;  &slony1; 
+différents noeuds. Ceci ne représenté pas un problème sérieux;  &slony1; 
 tentera à nouveau de traiter l'événement qui a échoué, sans que l'intervention
 d'un administrateur soit nécessaire. </para>
 </listitem>
@@ -261,7 +261,7 @@
 
 <itemizedlist>
 
-<listitem><para><command>ERROR: remoteWorkerThread_%d: DDL preparation
+<listitem><para><command>ERROR: remoteWorkerThread_%d: DDL préparation
 failed - set %d - only on node %</command></para>
 
 <para> Quelque chose s'est cassé lors du traitement d'un script DDL sur un des noeuds.
@@ -337,17 +337,17 @@
 
 <listitem><para><command>ERROR: Slony-I: alterTableRestore(): Table % is not in altered state</command></para> 
 
-<para> Hmm.  La table n'est pas dans un état réliqué. Cela ne devrait pas se produire si la réplication 
+<para> Hmm.  La table n'est pas dans un état répliqué. Cela ne devrait pas se produire si la réplication 
 fonctionne correctement...</para> </listitem>
 
 <listitem><para><command>NOTICE: Slony-I: alterTableForReplication(): multiple instances of trigger % on table %'',</command></para> 
 
-<para> Ceci se produit en général lorsque vous avez une table avec des triggers que la rélication a du cacher
-lors de l'abonnement du noeud et que vous avez ajouter un tiggrer portant le même nom. Maintenant, lorsque l'on tente de
+<para> Ceci se produit en général lorsque vous avez une table avec des triggers que la réplication a du cacher
+lors de l'abonnement du noeud et que vous avez ajouter un triggrer portant le même nom. Maintenant, lorsque l'on tente de
 réactiver le trigger caché, les deux triggers entre en conflit.
  </para>
 
-<para> Le script DDL continuera a tourner, encore et encore, ou la commande UNINSTALL NODE échoura,
+<para> Le script DDL continuera a tourner, encore et encore, ou la commande UNINSTALL NODE échouera,
 jusqu'à ce que vous supprimiez le trigger <quote>visible</quote> à la main, puisque vous l'avez probablement
 ajouté à la main un peu plus tôt. </para>
 </listitem>
@@ -360,7 +360,7 @@
 <sect3><title> Problèmes avec les processus</title>
 
 <para> Le modèle de gestion des processus ("threading") de &slony1; n'est pas 
-directement <quote>paramètrable par les utilisateurs</quote>;
+directement <quote>paramétrable par les utilisateurs</quote>;
 Chaque démon &lslon; crée un ensemble pré-défini de processus pour gérer 
 les différentes connexions nécessaires. La seule occasion où la gestion 
 des processus peut poser problème est lorsque les librairies de &postgres;
@@ -385,17 +385,17 @@
 <listitem><para><command>DEBUG1: remoteWorkerThread_%d: disconnecting
 from data provider %d </command></para>
 
-<para> Un noeuf fournisseur qui n'est plus utilisé  peut être supprimé;
+<para> Un noeud fournisseur qui n'est plus utilisé  peut être supprimé;
 si les informations de  connexion sont changées, le démon &lslon; doit se déconnecter et 
 se reconnecter. </para></listitem>
 
 <listitem><para><command>DEBUG2: remoteWorkerThread_%d: ignore new events due to shutdown</command></para> 
 
-<para> Si le démon &lslon; est en cours d'arrêt, il est futile de traiter d'autres événéments.</para></listitem>
+<para> Si le démon &lslon; est en cours d'arrêt, il est futile de traiter d'autres événements.</para></listitem>
 
 <listitem><para><command>DEBUG1: remoteWorkerThread_%d: node %d - no worker thread</command></para> 
 
-<para> Curieux : il est impossibe de réveiller le processus de traitement; pourtant il devrait déjà
+<para> Curieux : il est impossible de réveiller le processus de traitement; pourtant il devrait déjà
 y en avoir un... </para></listitem>
 
 </itemizedlist>
@@ -425,7 +425,7 @@
 
 <listitem><para><command>ERROR: remoteWorkerThread_%d: node %d has no pa_conninfo </command></para> 
 
-<para> Apparament les informations de connexion sont <emphasis>fausses</emphasis>...</para></listitem>
+<para> Apparemment les informations de connexion sont <emphasis>fausses</emphasis>...</para></listitem>
 
 <listitem><para><command>ERROR: copy set %d cannot connect to provider DB node %d </command></para> 
 
@@ -450,7 +450,7 @@
 
 <listitem><para><command>ERROR: Slony-I: subscribeSet(): set % not found</command></para>
 
-<para> Hmm.  Le noud fournisseur ne connait pas cet ensemble de réplication. Un mauvais paramètre dans un 
+<para> Hmm.  Le noeud fournisseur ne connaît pas cet ensemble de réplication. Un mauvais paramètre dans un 
 script &lslonik; ?</para> </listitem>
 
 <listitem><para><command>ERROR: Slony-I: subscribeSet(): set origin and receiver cannot be identical</command></para> 
@@ -459,7 +459,7 @@
 
 <listitem><para><command>ERROR: Slony-I: subscribeSet(): set provider and receiver cannot be identical</command></para> 
 
-<para> Un noeud recepteur doit s'abonner à un noeud <emphasis>différent</emphasis>...</para> </listitem>
+<para> Un noeud récepteur doit s'abonner à un noeud <emphasis>différent</emphasis>...</para> </listitem>
 
 <listitem><para><command>Slony-I: subscribeSet(): provider % is not an active forwarding node for replication set %</command></para> 
 
@@ -472,7 +472,7 @@
 
 <listitem><para><command>Slony-I: subscribeSet_int(): set % not found</command></para>
 
-<para> Ce noeud ne connait pas l'ensemble de réplication... Vous avez peut-être soumis un mauvais 
+<para> Ce noeud ne connaît pas l'ensemble de réplication... Vous avez peut-être soumis un mauvais 
 paramètre ?</para></listitem>
 
 <listitem><para><command>Slony-I: unsubscribeSet() must be called on receiver</command></para> 
@@ -486,10 +486,10 @@
 
 <listitem><para><command>Slony-I: cleanupEvent(): Single node - deleting events &lt; %</command></para> 
 
-<para> Si il n'y a qu'un seul noeud, l'événement de nettoyage va supprimer les anciens événements
-afin que you don't get <quote>build-up of crud.</quote></para></listitem>
-TODO
+<para> S'il n'y a qu'un seul noeud, l'événement de nettoyage va supprimer les anciens événements
+afin pour ne pas récupérer le <quote>crud</quote>.</para></listitem>
 
+
 <listitem><para><command>Slony-I: tableAddKey(): table % not found</command></para> 
 
 <para> Peut-être que vous n'avez pas copié le schéma proprement ?</para></listitem>
@@ -556,11 +556,11 @@
 
 <listitem><para><command>DEBUG3: remoteWorkerThread_%d: local table %s already has Slony-I serial key</command></para> 
 
-<para> Il n'est pas nécessaire d'ajouter un clef de type 'serial'; apparement elle existe déjà.</para></listitem>
+<para> Il n'est pas nécessaire d'ajouter un clef de type 'serial'; apparemment elle existe déjà.</para></listitem>
 
 <listitem><para><command>DEBUG3: remoteWorkerThread_%d: table %s does not require Slony-I serial key</command></para> 
 
-<para> Apparement cette table n'a pas besoin d'une clef primaire supplémentaire... </para>
+<para> Apparemment cette table n'a pas besoin d'une clef primaire supplémentaire... </para>
 </listitem>
 <listitem><para><command>DEBUG3: remoteWorkerThread_%d: table %s Slony-I serial key added local</command></para> </listitem>
 <listitem><para><command>DEBUG2: remoteWorkerThread_%d: Begin COPY of table %s</command></para> 
@@ -569,14 +569,14 @@
 
 <listitem><para><command>ERROR: remoteWorkerThread_%d: Could not generate copy_set request for %s - %s</command></para> 
 
-<para> Ceci indqique que la requête <command>delete/copy</command> a échouée sur l'abonné.
+<para> Ceci indique que la requête <command>delete/copy</command> a échouée sur l'abonné.
 Le &lslon; va répéter la tentative de <command>COPY_SET</command>; il est probable que l'opération continue
 d'échouer... </para> </listitem>
 
 <listitem><para><command>ERROR: remoteWorkerThread_%d: copy to stdout on provider - %s %s</command></para> 
 
 <para> Évidement quelque chose ne fonctionne pas au niveau de l'opération COPY vers la sortie <filename>stdout</filename>
-sur e noeud fournisseur...  L'événement va être lancé à nouveau... </para> </listitem>
+sur le noeud fournisseur...  L'événement va être lancé à nouveau... </para> </listitem>
 
 <listitem><para><command>ERROR: remoteWorkerThread_%d: copy from stdin on local node - %s %s</command></para> 
 
@@ -616,13 +616,13 @@
 
 <listitem><para><command>DEBUG2: remoteWorkerThread_%d: copy_set SYNC found, use event seqno %s</command></para> 
 
-<para> Ceci se produit si un évenement SYNC est trouvé; l'événement courant est positionné à la valeur 
+<para> Ceci se produit si un événement SYNC est trouvé; l'événement courant est positionné à la valeur 
 indiquée. </para> </listitem>
 
 <listitem><para><command>ERROR: remoteWorkerThread_%d: sl_setsync entry for set %d not found on provider</command></para> 
 
-<para> Une information de synchronization était attendues en provenance d'un noeud abonné existant, mais elle
-n'a pas été trouvée. Il s'agit probabement d'une erreur capable de bloquer la réplication ... </para> </listitem>
+<para> Une information de synchronisation était attendues en provenance d'un noeud abonné existant, mais elle
+n'a pas été trouvée. Il s'agit probablement d'une erreur capable de bloquer la réplication ... </para> </listitem>
 
 <listitem><para><command>DEBUG1: remoteWorkerThread_%d: could not insert to sl_setsync_offline</command></para> 
 
@@ -679,7 +679,7 @@
 <listitem><para><command>ERROR: Slony-I: set % has subscriptions in progress - cannot merge</command></para> 
 
 <para> <xref linkend="stmtmergeset"/> ne peut pas fusionner tant que tous les abonnements 
-ne sont pas achevés. Si ce message apparait, cela signifie que les listes d'abonnées sont 
+ne sont pas achevés. Si ce message apparaît, cela signifie que les listes d'abonnées sont 
 identique mais qu'un ou plusieurs noeuds n'ont pas terminé leur processus d'abonnement.
 Il est probable qu'attendre un courte période avant de soumettre à nouveau la requête
  <xref linkend="stmtmergeset"/> suffise à régler le problème. 
@@ -718,7 +718,7 @@
 déterminer quels événements étaient en attente.</para>
 
 <para> Ceci se produit lorsqu'un connexion réseau est coupée. Si c'est le cas, redémarrer le démon 
- &lslon; devrait suffir pour résoudre le problème. </para>
+ &lslon; devrait suffire pour résoudre le problème. </para>
 
 <para> Par ailleurs, ceci peut se produite lorsque le démon &lslon; de ce noeud
 a été en panne pendant longtemps, et qu'il y a une quantité énorme de lignes dans 
@@ -726,7 +726,7 @@
 traitées et qu'il faut plus de  <xref
 linkend="slon-config-remote-listen-timeout"/> secondes pour exécuter la requête
 SQL. 
-Dans les anciennes version de &slony1;, ce paramètre de configuration parameter n'existait
+Dans les anciennes version de &slony1;, ce paramètre de configuration  n'existait
 pas; le temps maximum était fixé à 300 secondes. Dans les nouvelles versions, vous
 pouvez augmenter cette valeur dans le fichier de configuration de  &lslon; pour
 que le démon continue à traiter les événements. Puis vous pourrez enquêter pour
@@ -751,7 +751,7 @@
 
 <listitem><para><command>DEBUG1: remoteWorkerThread_%d: data provider %d only confirmed up to ev_seqno %d for ev_origin %d </command></para> 
 
-<para> Le fournisseur de ce noeud est un abonné, apparement  cet abonné est en retard.
+<para> Le fournisseur de ce noeud est un abonné, apparemment  cet abonné est en retard.
 Le démon &lslon; doit attendre que le fournisseur rattrape son retard avant de recevoir de 
 <emphasis> nouvelles</emphasis> données. </para></listitem>
 
@@ -793,14 +793,14 @@
 
 <listitem><para><command>ERROR: remoteWorkerThread_%d: %s %s - qualification was %s </command></para> 
 
-<para> Apparement l'application de données répliquées sur l'abonné à échouée....
+<para> Apparemment l'application de données répliquées sur l'abonné à échouée....
 Ceci indique très certainement une corruption assez grave.</para></listitem>
 
 <listitem><para><command>ERROR: remoteWorkerThread_%d: replication query did not affect one row (cmdTuples = %s) - query was: %s qualification was: %s</command></para> 
 
 <para> Si <envar> SLON_CHECK_CMDTUPLES</envar> est défini, &lslon; applique les 
 changement tuple par tuple, et vérifie que chaque changement affecte exactement un tuple.
-Apparement ce n'était pas le cas ici, ce qui semble indiquer une corruption de la
+Apparemment ce n'était pas le cas ici, ce qui semble indiquer une corruption de la
 réplication. C'est plutôt une mauvaise nouvelle...</para></listitem>
 
 <listitem><para><command>ERROR: remoteWorkerThread_%d: SYNC aborted</command></para> 
@@ -812,7 +812,7 @@
 Il est peut-être nécessaire de désabonner/réabonner l'ensemble de réplication
 concerné, ou si il n'y a qu'un seul ensemble de réplication sur le noeud esclave,
 il est parfois plus simple de supprimer et de recréer le noeud. Si les connexions
-de l'application peuvent être détournées vers le noeud maitre pendant cette opération,
+de l'application peuvent être détournées vers le noeud maître pendant cette opération,
 alors il n'est pas nécessaire d'arrêter le service.  </para></listitem>
 
 <listitem><para><command>DEBUG2: remoteWorkerThread_%d: new sl_rowid_seq value: %s</command></para> 
@@ -844,7 +844,7 @@
 <listitem><para><command>DEBUG3: remoteWorkerThread_%d: compress_actionseq(list,subquery) Action list: %s</command></para> 
 
 <para> Ce message indique qu'une partir de la requête du curseur LOG va être compressée.
-(Daans certains cas, les requêtes peuvent grossir jusqu'à une taille  <emphasis>enormous</emphasis>
+(Dans certains cas, les requêtes peuvent grossir jusqu'à une taille  <emphasis>énorme</emphasis>
 et faire exploser l'analyseur de requêtes...) </para></listitem>
 <listitem><para><command>DEBUG3: remoteWorkerThread_%d: compressed actionseq subquery %s</command></para> 
 
@@ -856,13 +856,13 @@
 <sect3 id="logaddobjects"><title> Messages concernant l'ajout d'objets dans des ensembles de réplication</title>
 
 <para> Ces messages apparaîtront dans les logs d'un noeud origine au moment
-ou vous configurerez un ensemble de réplication; certains apparaitront sur les noeuds abonnés
+ou vous configurerez un ensemble de réplication; certains apparaîtront sur les noeuds abonnés
 lors de leurs abonnement.  </para>
 
 <itemizedlist>
 <listitem><para><command>ERROR: Slony-I: setAddTable_int(): table % has no index %</command></para> 
 
-<para> Apparement un index PK qui a été spécifié est absent sur ce noeud...</para></listitem>
+<para> Apparemment un index PK qui a été spécifié est absent sur ce noeud...</para></listitem>
 
 <listitem><para><command>ERROR: Slony-I setAddTable_int(): table % not found</command></para> 
 
@@ -875,7 +875,7 @@
 
 <listitem><para><command>NOTICE: Slony-I setAddTable_int(): table % PK column % nullable</command></para> 
 
-<para> Vous avez tenté de repliquer une table dont une colonne de la clef primaire candidate peut être null.
+<para> Vous avez tenté de répliquer une table dont une colonne de la clef primaire candidate peut être null.
 Toute les colonnes participant à une clef primaire doivent être <command>NOT NULL</command>.
 Cette requête va échouer. </para>
 
@@ -918,27 +918,27 @@
 <listitem><para><command>ERROR: Slony-I setAddTable_int(): table id % has already been assigned!</command></para> 
 
 <para> L'identifiant de la table doit être assigné de manière unique dans 
-<xref linkend="stmtsetaddtable"/>; apparement vous avez demandé une valeur qui est déjà utilisée.
+<xref linkend="stmtsetaddtable"/>; apparemment vous avez demandé une valeur qui est déjà utilisée.
 </para></listitem>
 <listitem><para><command>ERROR: Slony-I setAddSequence(): set % not found</command></para> 
-<para> Apparement l'ensemble que vous demandez n'est pas disponible...</para></listitem>
+<para> Apparemment l'ensemble que vous demandez n'est pas disponible...</para></listitem>
 
 <listitem><para><command>ERROR: Slony-I setAddSequence(): set % has remote origin</command></para> 
 <para> Vous pouvez uniquement ajouter des choses sur le noeud origine.</para></listitem>
 
 <listitem><para><command>ERROR: Slony-I setAddSequence(): cannot add sequence to currently subscribed set %</command></para> 
-<para> Apparement l'ensemble de réplication que vous demandez a déjà été abonné.
+<para> Apparemment l'ensemble de réplication que vous demandez a déjà été abonné.
 Vous ne pouvez pas ajouter des tables/séquences dans un ensemble qui a déjà des abonnés.
 Vous devez créer un nouvel ensemble, y ajouter des objets, et définir ses abonnements
 </p>
 
 <listitem><para><command>ERROR: Slony-I setAddSequence_int(): set % not found</command></para> 
 
-<para> Apparement l'ensemble que vous demandez n'est pas disponible...</para></listitem>
+<para> Apparemment l'ensemble que vous demandez n'est pas disponible...</para></listitem>
 
 <listitem><para><command>ERROR: Slony-I setAddSequence_int(): sequence % not found</command></para> 
 
-<para> Apparement la séquence que vous demandez n'est pas disponible sur ce noeud.
+<para> Apparemment la séquence que vous demandez n'est pas disponible sur ce noeud.
 Comment avez-vous mis en place le schéma sur les noeuds abonnés ???</para></listitem>
 
 <listitem><para><command>ERROR: Slony-I setAddSequence_int(): % is not a sequence</command></para> 
@@ -946,7 +946,7 @@
 <para> Ce message est assez évident :-).</para></listitem>
 
 <listitem><para><command>ERROR: Slony-I setAddSequence_int(): sequence ID % has already been assigned</command></para> 
-<para> Chaque identifiant de séquence ajouté doit être unique. Apparement vous avez réutilisé un identifiant 
+<para> Chaque identifiant de séquence ajouté doit être unique. Apparemment vous avez réutilisé un identifiant 
 déjà existant.</para></listitem>
 
 </itemizedlist>
@@ -962,50 +962,50 @@
 
 <listitem><para><command>ERROR: Slony-I setMoveTable_int(): set ids cannot be identical</command></para> 
 
-<para> Quel est l'intérêt de déplacer une table qui se touve dans un ensemble dans le même ensemble ?
+<para> Quel est l'intérêt de déplacer une table dans un ensemble où elle se trouve déjà  ?
 </para></listitem>
-TODO
+
 <listitem><para><command>ERROR: Slony-I setMoveTable_int(): set % not found</command></para> 
 
-<para> Set wasn't found on this node; you probably gave the wrong ID number... </para></listitem>
+<para> L'ensemble n'a pas été trouvé sur le noeud; vous avez probablement indiqué un mauvais identifiant... </para></listitem>
 
 <listitem><para><command>ERROR: Slony-I setMoveTable_int(): set % does not originate on local node</command></para> 
 
-<para> Set wasn't found to have origin on this node; you probably gave the wrong EVENT NODE... </para></listitem>
+<para> L'ensemble n'est pas originaire de ce noeud; vous avez probablement indiqué le mauvais EVENT NODE... </para></listitem>
 
 <listitem><para><command>ERROR: Slony-I setMoveTable_int(): subscriber lists of set % and % are different</command></para> 
 
-<para> You can only move objects between sets that have identical subscriber lists. </para></listitem>
+<para> Vous pouvez uniquement déplacer les objets entre des ensembles qui ont la même liste d'abonnés. </para></listitem>
 
 <listitem><para><command>ERROR: Slony-I setMoveSequence_int(): sequence % not found</command></para> 
 
-<para> Sequence wasn't found on this node; you probably gave the wrong ID number... </para></listitem>
+<para> La séquence n'a pas été trouvé sur ce noeud; vous avez probablement indiqué un mauvais identifiant... </para></listitem>
 
 <listitem><para><command>ERROR: Slony-I setMoveSequence_int(): set ids cannot be identical</command></para> 
 
-<para> Does it make sense to move a sequence from a set into the very same set? </para></listitem>
+<para> Quel est l'intérêt de déplacer une séquence dans un ensemble où elle se trouve déjà  ? </para></listitem>
 
 <listitem><para><command>ERROR: Slony-I setMoveSequence_int(): set % not found</command></para> 
 
-<para> Set wasn't found on this node; you probably gave the wrong ID number... </para></listitem>
+<para> L'ensemble n'a pas été trouvé sur le noeud; vous avez probablement indiqué un mauvais identifiant... </para></listitem>
 
 <listitem><para><command>ERROR: Slony-I setMoveSequence_int(): set % does not originate on local node</command></para> 
 
-<para> Set wasn't found to have origin on this node; you probably gave the wrong EVENT NODE... </para></listitem>
+<para> L'ensemble n'est pas originaire de ce noeud; vous avez probablement indiqué le mauvais EVENT NODE.... </para></listitem>
 
 <listitem><para><command>ERROR: Slony-I setMoveSequence_int(): subscriber lists of set % and % are different</command></para> 
 
-<para> You can only move objects between sets that have identical subscriber lists. </para></listitem>
+<para>  Vous pouvez uniquement déplacer les objets entre des ensembles qui ont la même liste d'abonnés. </para></listitem>
 </itemizedlist>
 </sect3>
 
 
-<sect3><title> Problèmes lors de la suppresion d'objets</title>
+<sect3><title> Problèmes lors de la suppression d'objets</title>
 
 <itemizedlist>
 <listitem><para><command>ERROR: Slony-I setDropTable(): table % not found</command></para> 
 
-<para> La table n'a pas étét trouvée sur ce noeud; Êtes-vous sur(e) d'avoir indiqué le bon identifiant ?
+<para> La table n'a pas été trouvée sur ce noeud; Êtes-vous sur(e) d'avoir indiqué le bon identifiant ?
 </para></listitem>
 
 <listitem><para><command>ERROR: Slony-I setDropTable(): set % not found</command></para> 
@@ -1039,9 +1039,9 @@
 
 <para> D'autres messages se produisent lorsque &lslon; s'avertit lui-même qu'il va 
 s'arrêter. Tout <emphasis>devrait</emphasis> bien se passer lorsque vous le redémarrez,
-car il lira la nouvelle configuration lors de son redemarrage.</para>
+car il lira la nouvelle configuration lors de son redémarrage.</para>
 
-<para> Hélas, quelques messages indiquent que <quote>quelquechose de mauvais est arrivé
+<para> Hélas, quelques messages indiquent que <quote>quelque chose de mauvais est arrivé
 </quote>, auquel cas la solution ne sera pas nécessairement simple.
 Personne n'a dit que la réplication c'était facile...</para>
 
@@ -1052,7 +1052,7 @@
 
 <listitem><para><command>ERROR: Slony-I: Node % is still configured as a data provider</command></para> 
 
-<para> Vous ne pouvez pas supprimer un noeud qu est utilisé comme fournisseur de données;
+<para> Vous ne pouvez pas supprimer un noeud qui est utilisé comme fournisseur de données;
 vous devez remodeler les abonnements pour qu'aucun noeud ne soit dépendant de celui-ci.
 </para></listitem>
 
@@ -1076,16 +1076,16 @@
 
 <listitem><para><command>ERROR: Slony-I: cannot failover - node % is not a forwarder of set %</command></para> 
 
-<para> Vous ne pouvez effectuer unen bascule d'urgence ou un bascule controllée que vers un noeud 
+<para> Vous ne pouvez effectuer une bascule d'urgence ou un bascule contrôlée que vers un noeud 
 transmetteur. </para></listitem>
 
 <listitem><para><command>NOTICE: failedNode: set % has no other direct receivers - move now</command></para> 
 
-<para> Si le noeud de sauvegarde est le seul abonné diret, alors la situation est simplifiée...
+<para> Si le noeud de sauvegarde est le seul abonné direct, alors la situation est simplifiée...
 Pas besoin de remodeler les abonnements !</para></listitem>
 
 <listitem><para><command>NOTICE: failedNode set % has other direct receivers - change providers only</command></para> 
-<para> Dans ce cas, tous les abonnés diret sont redirigés vers le noeud de sauvegarde et le noeud de sauvegarde est redirigé 
+<para> Dans ce cas, tous les abonnés direct sont redirigés vers le noeud de sauvegarde et le noeud de sauvegarde est redirigé 
 vers un autre noeud pour qu'il puisse rattraper son retard.</para></listitem>
 
 <listitem><para><command>NOTICE: Slony-I: Please drop schema _ at CLUSTERNAME@</command></para> 
@@ -1099,7 +1099,7 @@
 <sect3><title> Permutation des logs  </title>
 
 <para> Ces messages sont liés à la nouvelle fonctionnalité apparue dans la version 1.2 qui 
-permet à &slony1; de permutter périodiquement le stockage des données entre 
+permet à &slony1; de permuter périodiquement le stockage des données entre 
  <envar>sl_log_1</envar> et <envar>sl_log_2</envar>.</para>
 
 <itemizedlist>
@@ -1109,13 +1109,13 @@
 
 <listitem><para><command>Slony-I: Logswitch to sl_log_1 initiated'</command></para> 
 
-<para> Ce messae indique  &lslon; est en train de permuter vers cette table de log .</para></listitem>
+<para> Ce message indique  &lslon; est en train de permuter vers cette table de log .</para></listitem>
 
 <listitem><para><command>Previous logswitch still in progress</command></para> 
 
 <para> Un tentative de permutation a été faite alors qu'une permutation était déjà en cours...</para></listitem>
 
-<listitem><para><command>ERROR: remoteWorkerThread_%d: cannot determine current log status</command></para> 
+<listitem><para><command>ERROR: remoteWorkerThread_%d: cannot détermine current log status</command></para> 
 
 <para> La tentative de lecture dans la table sl_log_status, qui détermine si on travaille sur 
 <envar>sl_log_1</envar> ou <envar>sl_log_2</envar>, n'a donné aucun résultat.
@@ -1129,65 +1129,68 @@
 
 </itemizedlist>
 </sect3>
-<sect3><title> Miscellanea </title>
+<sect3><title> Divers </title>
 
-<para> Perhaps these messages should be categorized further; that
-remains a task for the documentors.</para>
+<para> Le messages ci-dessous ne sont pas encore classés; les auteurs de la documentation ont
+encore du travail...</para>
 
 <itemizedlist>
 
 <listitem><para><command>ERROR: Slonik version: @MODULEVERSION@ != Slony-I version in PG build %</command></para> 
 
-<para> This is raised in <function>checkmoduleversion()</function> if there is a mismatch between the version of &slony1; as reported by &lslonik; versus what the &postgres; build has.</para></listitem>
+<para> Ce message est produit par la fonction <function>checkmoduleversion()</function> lorsqu'il y a
+un problème de correspondance entre la version de &slony1; telle qu'elle est indiquée par &lslonik; 
+et le version avec laquelle &postgres; a été compilé.</para></listitem>
+
 <listitem><para><command>ERROR: Slony-I: registry key % is not an int4 value</command></para> 
 
-<para> Raised in <function>registry_get_int4()</function>, this complains if a requested value turns out to be NULL.</para> </listitem>
+<para> Message produit par <function>registry_get_int4()</function>, cela indique que la valeur demandée semble être à NULL.</para> </listitem>
 <listitem><para><command>ERROR: registry key % is not a text value</command></para> 
 
-<para> Raised in <function>registry_get_text()</function>, this complains if a requested value turns out to be NULL.</para></listitem>
+<para> Message produit par  <function>registry_get_text()</function>, cela indique que la valeur demandée semble être à NULL</para></listitem>
 <listitem><para><command>ERROR: registry key % is not a timestamp value</command></para> 
 
-<para> Raised in <function>registry_get_timestamp()</function>, this complains if a requested value turns out to be NULL.</para></listitem>
+<para> Message produit par  <function>registry_get_timestamp()</function>, cela indique que la valeur demandée semble être à NULL</para></listitem>
+
 <listitem><para><command>NOTICE: Slony-I: cleanup stale sl_nodelock entry for pid=%</command></para> 
 
 <para> This will occur when a &lslon; starts up after another has crashed; this is routine cleanup.</para></listitem>
 <listitem><para><command>ERROR: Slony-I: This node is already initialized</command></para> 
 
-<para> This would typically happen if you submit <xref linkend="stmtstorenode"/> gainst a node that has already been set up with the &slony1; schema. </para></listitem>
+<para> Ceci se produit typiquement lorsque l'on soumet une commande <xref linkend="stmtstorenode"/> sur une noeud
+qui a déjà été configuré avec le schéma &slony1;. </para></listitem>
+
 <listitem><para><command>ERROR: Slony-I: node % not found</command></para> 
 
-<para> An attempt to mark a node not listed locally as enabled should fail...</para></listitem>
+<para> Toute tentative pour marquer un noeud non listé localement comme actif devrait échouer...</para></listitem>
 <listitem><para><command>ERROR: Slony-I: node % is already active</command></para> 
 
-<para> An attempt to mark a node already marked as active as active should fail...</para></listitem>
+<para> Toute tentative pour marquer un noeud déjà marqué comme actif devrait échouer...</para></listitem>
 <listitem><para><command>DEBUG4: remoteWorkerThread_%d: added active set %d to provider %d</command></para> 
 
-<para> Indicates that this set is being provided by this
-provider.</para></listitem>
+<para> Indique que cet ensemble est fourni par ce fournisseur.</para></listitem>
 
 <listitem><para><command>DEBUG2: remoteWorkerThread_%d: event %d
 ignored - unknown origin</command></para>
 
-<para> Probably happens if events arrive before
-the <command>STORE_NODE</command> event that tells that the new node
-now exists... </para></listitem>
+<para> Ceci se produit probablement lorsque des événements arrivent avant
+l'événement <command>STORE_NODE</command> qui annonce que le nouveau noeud existe... </para></listitem>
 
 <listitem><para><command>WARN: remoteWorkerThread_%d: event %d ignored - origin inactive</command></para> 
 
-<para> This shouldn't occur now (2007) as we don't support the notion
-of deactivating a node... </para>
+<para> Ceci ce produit actuellement (2007) car la désactivation d'un noeud n'est pas une fonctionnalité supportée... </para>
 </listitem>
 
 <listitem><para><command>DEBUG2: remoteWorkerThread_%d: event %d ignored - duplicate </command></para>
 
-<para> This might be expected to happen if the event notification
-comes in concurrently from two sources... </para> </listitem>
+<para> Ceci devrait se produire lorsqu'une notification d'événement arrive en provenance de 
+deux sources... </para> </listitem>
 
 <listitem><para><command>DEBUG2: remoteWorkerThread_%d: unknown node %d</command></para> 
 
-<para> Happens if the &lslon; is unaware of this node; probably a sign
-of <command>STORE_NODE</command> requests not
-propagating... </para> </listitem>
+<para> Ceci se produit lorsque le démon &lslon; n'est conscient de l'existence de ce noeud;
+C'est probablement un signe que les requêtes <command>STORE_NODE</command> ne se propagent pas
+... </para> </listitem>
 </itemizedlist>
 </sect3>
 </sect2>



More information about the Trad mailing list