I. Introduction▲
Par le passé, les systèmes de réplication qu'offrait Oracle n'ont jamais fait l'unanimité. Basés sur des snapshots de tables, peu performants, ils ont souvent été ignorés au profit d'autres systèmes de réplication hétérogènes d'autres éditeurs.
Dès la version 9i, Oracle a décidé de pallier cette carence en réécrivant totalement sa réplication, se basant sur l'expérience de transfuges d'autres éditeurs. C'est ainsi que Streams a vu le jour.
Les débuts de Streams ont été douloureux, et il n'est d'ailleurs pas recommandé de l'utiliser en production avec une masse importante de données à répliquer en version pré10.2. Dès la version 10.2, Streams commence par contre à devenir un outil de réplication transactionnel intéressant.
Cet article a pour but de vous démontrer les fonctionnalités basiques de Streams. Afin de ne pas sombrer dans la traduction stupide d'articles Oracle, je me propose de vous démontrer la mise en place d'une configuration Streams particulière : Downstreams (Archieved-Log Downstreams Capture).
Principaux traits de Downstreams
- Quasi aucun impact de performance sur la base source, la lecture se faisant via des fichiers d'archivelogs, et tous les processus de Streams étant localisés sur l'instance cible.
- Quasi aucun impact sur la source si la cible vient à tomber en panne.
- Réplication à flux semi-tendu puisque les données n'arrivent qu'au rythme des archivelogs (il faut donc attendre ou générer des switchlogs).
- Architecture intéressante pour une réplication d'un environnement OLTP à l'ODS d'un environnement décisionnel.
- Possibilité de modifier les règles de réplication pour, par exemple, transférer les données d'une table source dans un schéma et une table dont les noms sont différents sur la cible.
- Possibilité (dès 10.2) de déterminer des règles négatives afin d'améliorer les performances du processus capture.
Nous partirons du postulat que nous allons répliquer des données d'un serveur source nommé ORAOLTP à un serveur cible nommé ORADSS.
En résumé, voici ce qui va se passer :
- Des utilisateurs modifient des enregistrements sur ORAOLTP ;
- Les blocs modifiés passent au travers du redo log ;
- Lorsque le redo log est plein ou qu'un switch redo log est activé, le redo suivant est activé ;
- Le redo traité est journalisé, soit donc copié comme archivelog par l'archiver ;
- Downstreams oblige en plus l'archiver à copié une copie de ce fichier sur le site distant de ORADWH ;
- Dès ce point s'arrête la charge sur ORAOLTP, et commence le travail de ORADSS ;
- Le processus de capture d'ORADWH détecte l'arrivée d'un nouvel archivelog distant ;
- Il le lit intégralement et en retire les modifications apportées sur les tables qui sont marquées comme répliquées ;
- Il crée un enregistrement dans une file d'attente et l'envoie au propagateur ;
- Le propagateur applique au besoin des transformations et l'envoie à l'applicateur (applyer) ;
- L'applicateur exécute la modification sur la base ORADWH. Dans notre cas de figure (DownStreams), le propagateur n'est pas nécessaire puisque capture et applyer sont sur le même serveur de données. Nous redirigerons donc directement l'applyer sur la file d'attente de la capture.
Dans le cas de Downstreams, le propagateur n'a pas de raison d'être puisque capture et applyer sont sur le même serveur de données. Nous redirigerons donc l'entrée de l'applyer sur la file de la capture.
II. Logging supplémentaire▲
Streams nécessite des informations dans les redo supplémentaires. Pour obtenir lesdites informations, les tables sources doivent être en mode supplemental logging. Ce faisant, la taille des redio logs va augmenter, ainsi que celles des archivelogs. Cette modification impacte donc les performances globales de l'instance source, qu'il s'agisse de Streams ou de Downstreams.
Logminer est lui aussi dépendant de ces informations. Dès Oracle 10.2, la base de données doit avoir un niveau minimum de supplemental logging pour permettre l'application au niveau table.
Pour contrôler le niveau au niveau de la base
SELECT supplemental_log_data_min,
supplemental_log_data_pk,
supplemental_log_data_ui,
supplemental_log_data_fk,
supplemental_log_data_all
FROM v$database;Le supplemental_log_data_min doit être activé. Pour l'activer s'il ne l'est pas :
alter database add supplemental log data;Au niveau des tables, le choix entre les divers modes de supplemental logging est possible (UNIQUE, PRIMARY KEY, FOREIGN KEY, ALL), mais a son incidence sur les performances et la façon plus ou moins stricte avec laquelle Streams gérera certaines erreurs.
Pour ma part, je conseille l'utilisation de PRIMARY KEY.
alter table MonSchema.MaTable add supplemental log data (PRIMARY KEY) columns ;Si vous obtenez une erreur lors du passage de l'ordre, il se peut que cela vienne d'une ancienne configuration. Il suffit alors de supprimer le groupe log spécifique à la table. La commande se génère aisément grâce à l'ordre suivant :
select 'alter table '||owner||'.'||table_name||' drop supplemental log group '||log_group_name||';'
from dba_log_groups
where owner = 'MonSchema'
and table_name = 'MaTable';Il est ensuite aisé de déterminer quel type de supplemental logging est associé à chaque table grâce à la commande suivante :
select table_owner, table_name,supplemental_log_data_all, supplemental_log_data_FK, supplemental_log_data_ui, supplemental_log_data_pk
from dba_capture_prepared_tables
where supplemental_log_data_all <> 'NO'
OR supplemental_log_data_PK <> 'NO'
OR supplemental_log_data_FK <> 'NO'
OR supplemental_log_data_UI <>'NO' ;III. Configuration de l'instance source▲
Afin de permettre le bon fonctionnement de Streams un certain nombre de paramètres de l'instance source doivent être configurés avec des valeurs spécifiques :
|
Paramètre |
Valeur |
|---|---|
|
log_archive_config |
DG_CONFIG=(ORAOLTP,ORADWH) |
|
log_archive_dest_2 |
SERVICE=ORADWH.DEVELOPPEZ.COM ARCH OPTIONAL NOREGISTER VALID_FOR=(ONLINE_LOGFILES,PRIMARY_ROLE) TEMPLATE=/CheminSurServeurCible/ORAOLTP_%t_%s_%r.arc DB_UNIQUE_NAME=ORADWH |
|
log_archive_dest_state_2 |
enable |
Création d'un super-utilisateur STREAMSADM
CONNECT SYS/MonPwd@ORAOLTP AS SYSDBA
CREATE USER STREAMSADM IDENTIFIED BY ******** ACCOUNT UNLOCK ;
GRANT DBA TO STREAMSADM ;
GRANT RESOURCES TO STREAMSADM ;IV. Configuration de l'instance cible▲
Afin de permettre le bon fonctionnement de Streams un certain nombre de paramètres de l'instance cible doivent être configurés avec des valeurs spécifiques :
|
Paramètre |
Valeur |
|---|---|
|
log_archive_config |
DG_CONFIG=(ORAOLTP,ORADWH) |
|
fal_server |
'ORAOLTP' |
|
fal_client |
'ORADWH' |
Création d'un super-utilisateur STREAMSADM et de son schéma, en tant que SYS
En configuration Downstreams, les mots de passe de SYS doivent être obligatoirement similaires sur ORADWH que sur ORAOLTP. Par convenance, nous agirons de même en ce qui concerne l'utilisateur STREAMADM : cela simplifie certaines tâches administratives.
CONNECT SYS/MonPwd@ORADWH AS SYSDBA
CREATE TABLESPACE STREAMS_D01 DATAFILE '/VotreLocalisation/STREAMSADM_D01.dat' SIZE=200M AUTOEXTEND ON NEXT 100M MAXSIZE 2G ;
CREATE USER STREAMSADM IDENTIFIED BY ******** DEFAULT TABLESPACE STREAMS_D01 ACCOUNT UNLOCK;
GRANT DBA TO STREAMSADM ;
GRANT RESOURCE TO STREAMSADM ;
GRANT EXECUTE ON DBMS_FLASHBACK TO STREAMSADM ;
GRANT EXECUTE ON dbms_streams_adm TO STREAMSADM ;
GRANT EXECUTE ON dbms_apply_adm TO STREAMSADM ;
GRANT EXECUTE ON dbms_streams_adm TO STREAMSADM ;
BEGIN
DBMS_STREAMS_AUTH.GRANT_ADMIN_PRIVILEGE(
grantee => 'STREAMSADM',
grant_privileges => true);
END;
/Bien que l'environnement est en mode Downstreams, il est quand même nécessaire d'avoir un database link entre la base de données cible et la base de données source. Ce database link est à créer sur la base de données cible. Il permet de faciliter l'opération d'enregistrement de nouvelles tables dans le flux de réplication Streams. Le database link appartient à l'administrateur Streams (STREAMSADM).
CONNECT STREAMSADM/MonPwd@ORADWH
-- création
CREATE DATABASE LINK ORAOLTP CONNECT TO CURRENT_USER USING 'ORAOLTP.DEVELOPPEZ.COM';
-- Test
SELECT * FROM DUAL@ORAOLTP ;Afin de permettre la configuration des processus de capture et d'application, il est nécessaire de créer deux queues Oracle de type Anydata sur la base de données cible. Cette création s'effectue au moyen de la procédure DBMS_STREAMS_ADM.SET_UP_QUEUE
PROMPT Création de la queue de capture
begin
dbms_streams_adm.set_up_queue(
queue_table => 'streamsadm.stream_queue_cpt',
queue_name => 'stream_queue_cpt',
queue_user => 'streamsadm');
end;
/
-- Test
SELECT * FROM streamsadm.stream_queue_cpt ;Selon la même méthode, création d'une queue d'application nommée stream_queue_appl et appartenant à l'administrateur Streams (STREAMSADM).
PROMPT Création de la queue d'application
begin
dbms_streams_adm.set_up_queue(
queue_table => 'streamsadm.stream_queue_appl',
queue_name => 'stream_queue_appl',
queue_user => 'streamsadm');
end;
/
-- Test
SELECT * FROM streamsadm.stream_queue_appl ;La dernière étape à réaliser avant de pouvoir ajouter une table dans le processus de réplication Streams et la création du processus de Capture sur la base cible. Cette création s'effectue au moyen du package DBMS_CAPTURE_ADM.CREATE_CAPTURE.
BEGIN
DBMS_CAPTURE_ADM.CREATE_CAPTURE(
queue_name => 'streamsadm.stream_queue_cpt',
capture_name => 'strm_capture',
rule_set_name => NULL,
start_scn => NULL,
source_database => 'ORAOLTP',
use_database_link => true,
first_scn => NULL,
logfile_assignment => 'implicit');
END;
/
-- Test
SELECT CAPTURE_NAME, STATUS, STATUS_CHANGE_TIME FROM DBA_CAPTURE ;V. Heardbeat : la première table répliquée à mettre en place▲
Afin d'être certain que notre système de réplication fonctionne, il est d'usage de créer une table de test sur laquelle on opère un update chaque cinq minutes, via un cron ou un job Oracle. Cette table permet alors de calculer la latence de la réplication.
DECLARE
cStreamUser CONSTANT VARCHAR2(30) := 'STREAMSADM';
cStreamPropName CONSTANT VARCHAR2(30) := 'STRM_PROP';
cStreamApplyName CONSTANT VARCHAR2(30) := 'STRM_APPLY';
cStreamCaptureName CONSTANT VARCHAR2(30) := 'STRM_CAPTURE';
cSourceQueueName CONSTANT VARCHAR2(30) := cStreamUser || '.' || 'STREAM_QUEUE_CPT';
cDestinationQueueName CONSTANT VARCHAR2(30) := cStreamUser || '.' || 'STREAM_QUEUE_APPL';
pOwner VARCHAR2(30) := 'STREAM';
pTableName VARCHAR2(30) := 'STREAM_LASTCOMMIT';
pSourceInstance VARCHAR2(30) := 'OLTP.DEVELOPPEZ.COM';
iScn NUMBER := 0 ;
vSql varchar2(500) ;
BEGIN
DBMS_STREAMS_ADM.ADD_TABLE_RULES(
table_name => Upper(pOwner)||'.'||Upper(pTableName),
streams_type => 'capture',
streams_name => cStreamCaptureName,
queue_name => cSourceQueueName,
include_dml => true,
include_ddl => false,
include_tagged_lcr => false,
source_database => pSourceInstance,
inclusion_rule => true);
dbms_streams_adm.add_table_rules(
table_name => pOwner||'.'||pTableName,
streams_type => 'APPLY',
streams_name => cStreamApplyName,
queue_name => cSourceQueueName,
include_dml => true,
include_ddl => FALSE,
include_tagged_lcr => false,
inclusion_rule => true,
source_database => pSourceInstance);
vSql := 'SELECT DBMS_FLASHBACK.GET_SYSTEM_CHANGE_NUMBER() FROM DUAL@'|| pSourceInstance ;
dbms_output.put_line(vSql) ;
execute immediate vSql INTO iSCN ;
vSql := 'truncate table '|| pOwner||'.'||pTableName ;
dbms_output.put_line(vSql) ;
execute immediate vSql ;
vSql := 'insert into '|| pOwner||'.'||pTableName ||'( select * from '||pOwner||'.'||pTableName||'@'||pSourceInstance||')' ;
dbms_output.put_line(vSql) ;
execute immediate vSql ;
dbms_apply_adm.set_table_instantiation_scn (
source_object_name => Upper(pOwner)||'.'||Upper(pTableName),
source_database_name => pSourceInstance,
instantiation_scn => iSCN
) ;
END;
/VI. Contrôle de l'état de Streams▲
Outre la Grid Control qui permet une administration assez aisée de Streams, voici quelques requêtes intéressantes à encapsuler dans vos scripts de contrôle.
SELECT 'CAPTURE', C.CAPTURE_NAME, C.STATUS, C.STATUS_CHANGE_TIME
FROM DBA_CAPTURE C
UNION ALL
SELECT 'APPLY', a.APPLY_NAME, a.STATUS, a.STATUS_CHANGE_TIME
from DBA_APPLY aSELECT * from DBA_APPLY_ERROR ;Les transactions bloquantes sont stockées comme des messages. Il n'est donc pas aisé, en cas de blocage, de détecter quelle transaction bloque et pourquoi. Oracle propose à cet effet la fonction print_transaction() qui affiche, pour un no de transaction donné par la table DBA_APPLY_ERROR.
Je vous conseille donc vivement de suivre la documentation Oraclepour créer cette fonction fort utile.
SET SERVEROUTPUT ON SIZE 1000000
EXEC print_transaction('1.12.3455')Pas de SQL dans ce que vous obtiendrez : on décortique assez aisément le message en lisant les nouvelles et anciennes valeurs des objets. Relevez rapidement le nombre de modifications par message et le type du traitement apparaissant dans l'entête.
select substr(rule_condition, instr(rule_condition,'''')+1, instr(substr(rule_condition, instr(rule_condition,'''')+1),'''')-1) SCHEMAS,
substr(rule_condition, instr(rule_condition, 'get_object_name()')+21,
instr(rule_condition, ')) and :dml.is_null_tag()') - instr(rule_condition, 'get_object_name()')-22) TABLES,
source_database
from sys.STREAMS$_RULES
where streams_name='STRM_CAPTURE';VII. Nettoyage de Streams▲
Il peut être nécessaire parfois de redémarrer complètement l'environnement Streams depuis zéro. Pour ce faire il est nécessaire de supprimer toutes les tables du flux de réplication Streams.
Selon la documentation Oracle le nettoyage de l'environnement Streams peut être fait avec l'exécution de la procédure DBMS_STREAMS_ADM.REMOVE_STREAMS_CONFIGURATION. Malheureusement ce n'est pas le cas, en plus de ce package il est nécessaire de nettoyer les règles créées lors de l'ajout de table et de supprimer les queues d'Apply et de Capture.
BEGIN
DBMS_STREAMS_ADM.REMOVE_STREAMS_CONFIGURATION ;
FOR maqueue IN (select name from dba_queues where owner = 'STREAMSADM')
LOOP
DBMS_STREAMS_ADM.REMOVE_QUEUE(maqueue.name,TRUE);
END LOOP;
FOR maregle IN (select rule_set_name from dba_rule_sets where rule_set_owner = 'STREAMSADM')
LOOP
dbms_rule_adm.drop_rule_set(maregle.rule_set_name,TRUE);
END LOOP;
END ;
/VIII. Conséquences d'un cluster▲
Dans le cas d'un serveur source en cluster, soit donc avec plusieurs instances gérant une même base, la logique est la même, bien que chacune des instances gère ses propres archivelogs.
Les archivelogs sont gérées par chacune des instances et copiées de manière asynchrone sur la cible.
Le seul impact que le RAC génère est la latence de la réplication. Quel que soit l'ordre d'arrivée des archivelogs, c'est la séquence du SCN, global à la base et à toutes les instances sources qui déterminera l'ordre de lecture des archivelogs par le processus de capture.
Il convient donc, si les quelques instances sources n'ont pas le même rythme de génération des archivelogs (souvent le cas lorsqu'une instance et plus fortement sollicitée), de forcer via job Oracle un switch logfile à intervalles réguliers sur les deux instances.
IX. Résolution de problèmes▲
Deux processus peuvent être en erreur :
- la capture ;
- l'applyer.
IX-A. Erreurs liées au processus de capture▲
Dans l'onglet Capture, checker l'erreur, le satus et l'état
|
Erreur |
Explication |
Action |
|---|---|---|
|
308 |
Un achivelog est manquant |
Se référer aux DBA. Ils remonteront les archivelogs manquant depuis les bandes. Vous pourrez alors redémarrer le processus de capture |
|
N/A |
Erreur Log Miner |
Redémarrer le processus de capture |
|
N/A |
Etat DISABLE, sans doute dû à l'intégration d'une nouvelle table dans le processus |
Redémarrer le processus de capture |
IX-B. Erreurs liées au processus d'applyer▲
Dans l'onglet Appliquer, checker l'erreur, le satus et l'état
En cas d'état ABORT, cliquer sur le bouton Erreurs afin d'en savoir plus
Prenez la première ligne (transaction bloquante), relever le Nombre de messages et le No de message. Cliquez ensuite sur l'icône « Visualiser les enregistrements logiques de modification ».
Allez sur le bon no de message (il s'agit généralement d'un UPDATE), relevez le nom de la table et de son schéma et cliquez sur Comparez les valeurs.
En comparant Ancienne valeur (valeur attendue) et valeur en cours (valeur effective), si une inconsistance apparaît, corriger manuellement la ligne problématique dans la table.
Relancez ensuite l'applyer.
IX-C. Apply et capture fonctionnent, mais plus de réplication▲
Cela se passe par exemple si une archive n'est pas accessible OU si l'archivage n'avance plus sur une instance.
Le CAPTURE est donc en attente d'un archivelog. Mais lequel ?
StreamsAvance.ksh
La capture reprendra depuis le SCN 5160589104 dans les fichiers archive suivants:
/oradata/dbDSS/backup/arc/OLTP_1_22415_586194293.arc (14:30:31 03/18/08)
PL/SQL procedure successfully completed.Contrôler alors que le fichier .arc cité ainsi que les suivants sont présents sous le répertoire d'archive de la base DWH1I|P.
Si tel n'est pas le cas, essayer de les récupérer du côté de la source OLTP*.
Si tel n'est pas le cas, il suffit de les récupérer des bandes via une commande RMAN.
Après avoir retrouvé les fichiers, les transférer sur la cible via
cd /oradata/dbOLTP/backup/arc/
scp OLTP_1_*.arc hostname2:/oradata/dbDSS/backup/arc/Puis relancer le capture
Si le problème persiste, cela peut venir du fait qu'une archive n'a pas été enregistrée par Streams, ce qui peut se produire lorsque OLTP fonctionne et que DSS est arrêté. Dans ce dernier cas
select name
from dba_registered_archived_log
where name like '%OLTP_1_224%'
order by namealter database register or replace logical logfile '/oradata/dbDSS/backup/arc/OLTP_1 _224415_586194293.arc' for 'MONCAPTURE';- s'assurer que l'archive est bien présente sur la machine cible, où l'y copier manuellement
- contrôler son inscription ;
- au besoin, l'enregistrer sur DSS à l'aide de la commande.





