Paramétrage du Datahub

 

Paramétrage pour la gestion de fichiers

Avec la visite guidée, le chemin de lecture de l'automate par défaut est "/divalto/interfaces/datahub". Ce répertoire doit donc exister.

Paramétrage code chemin d’entrée

Menu : Administration / Paramètres / Chemins

Le datahub a un point d’entrée unique pour la dépose de fichiers, paramétré dans un code chemin sur le dossier 999.

DATAHUB_SCRUTATEUR est le nom par défaut que doit porter le chemin d'entrée des fichiers du datahub. Ce nom est uniquement modifiable par surcharge (Init_chemin_scrutateur dans le GTTTDHB001.dhsp) et doit forcément pointer le dossier 999

Le dossier indiqué ici, par exemple c:\divalto\interfaces\datahub doit exister avant tout lancement du datahub ; il n’est pas crée automatiquement. Seuls les sous-dossiers seront créés à la volée.

Paramétrage des natures et code chemin de stockage

Menu : Administration / Paramètres / Fichiers joints / Paramètres des fichiers joints 
 
Les chemins de stockage correspondent aux trois types de fichiers joints d'un dataset : le joint PIVOT, le joint PRINCIPAL et les AUTRES joints. Ces chemins pour le dossier 999 sont cherchés par l'automate par l'intermédiaire d'une NATURE DE FICHIER DE JOINT. 


Les codes de NATURE sont les suivants : 

  • DATAHUB_PIVOT pour la nature du chemin concernant le fichier pivot ; 

  • DATAHUB_AUTRE pour la nature du chemin concernant les autres fichiers.

  • Les autres natures pour le fichier principal sont codifiées selon le type de dataset

    • DATAHUB_FACFOU pour la nature du chemin concernant le fichier principal de facture fournisseur ; 

    • DATAHUB_PREVPDP pour la nature du chemin concernant le fichier principal de prévisions PDP ; 

    • DATAHUB_TPSAFF pour la nature du chemin concernant le fichier principal de temps d'affaire ; 

    • DATAHUB_IMPEXPXML pour la nature du chemin concernant le fichier principal d’import-export xml

    • DATAHUB_PCE pour la nature du chemin concernant le fichier principal de pièce

    • DATAHUB_DTR pour la nature du chemin concernant le fichier principal de devis travaux

    • DATAHUB_RECFOU pour la nature du chemin concernant le fichier principal de pré-reception fournisseur

    • DATAHUB_INTDTR pour la nature du chemin concernant le fichier principal d’intervention

    • DATAHUB_ECR pour la nature du chemin concernant le fichier principal d'écritures

 

Ces codes natures donnent l’association a un code chemin, par exemple :

Enfin, les codes chemins permettent donc de stocker les différents type de fichiers (pivot, principal, autres)

Note importante : la codification des chemins

Il est possible d'utiliser des données de l'enregistrement DHBENT (entête de dataset) dans la construction d'un chemin. 

Exemple : DATAHUB_JOINT_PIVOT est construit sous la forme :

/divalto/interfaces/datahub/pivot/[DHBENT.Source]

 

 

 

Avec le fichier pivot ci-dessus, la balise <SOURCE> est renseignée avec la valeur ‘CLIENTSWDHUB’. Le chemin de stockage final sera donc /divalto/interfaces/datahub/pivot/CLIENTSWDHUB

Dans ce cas tous les pivots seront stockés dans des sous-dossiers correspondant à la balise “<SOURCE>” du fichier pivot. 

Paramétrage des états de l’automate

Menu : Commerce & logistique / Data hub / Paramétrage Data Hub

Ce zoom permet d'administrer les états et scénarios de traitement des datasets.

 

Les états de l’automate sont fournis pour chaque type de dataset avec l’ERP, selon des scénarios préconstruits pour chaque type de dataset. Il n’y a en principe pas de raison d’intervenir dans ce paramétrage, sauf à vouloir modifier le scénario. Il est possible d’intervenir par surcharge sur le traitement métier d’une étape.

 

Une temps d’attente pour Datahub est paramétrable dans les Paramètres généraux (Administration / Paramètres / Paramètres généraux).

Ce temps exprimé en millisecondes, indique la durée de sommeil lorsque qu’aucune action n’a été effectuée par le dernier réveil du datahub.

Lancement de l'automate

Menu : Commerce & logistique / Data hub / Automate 

L’automate peut se lancer manuellement.

Une icône vient alors se placer dans la barre des tâches (sur la console du serveur en cas d’architecture client/serveur).

Fin du programme

Met fin à l’automate

Activer le déboggage

Permet d’activer un mode dans lequel il faut confirmer manuellement depuis la console tous les changements d'état

Activer l’analyse de performance

Active la génération d’une trace de performance pour l’outil XPERF

Continuer

Permet de reprendre les traitements, car l’automate est en pause tant que cette fenêtre apparaît

Aide sur le datahub

Lien vers l’aide

A propos

A propos du programme pour obtenir des détails sur la version

 

L’automate peut se lancer par service. On utilisera les services Diva pour lancer l’automate GTPPDHB001.DHOP. Attention, l’utilisateur associé au lancement du service doit avoir des droits sur le dossier du datahub (racine, sous-dossiers et création de sous-dossiers)

 

Superviseurs et suivi

Chaque type de dataset a un superviseur qui permet de consulter et manipuler les dataset en cours de traitement. La visibilité et les droits de l’utilisateur dans le superviseurs sont déterminés par le profil utilisateur datahub, car un utilisateur peut être concerné par une étape du workflow comme la validation d’une facture fournisseur ou avoir des droits d’administration

Profils utilisateurs datahub

Dans le paramétrage de l'utilisateur, il est possible de définir des droits d'accès aux datasets.

les divers choix possibles sont :

  • Selon Affectation : l'utilisateur ne voit que les datasets qui lui sont affectés (personne à charge) ou qui sont affectés à l'équipe dont il fait partie.

  • Superviseur mono-établissement : l'utilisateur ne voit que les datasets du dossier et de l'établissement qui le concerne.

  • Superviseur multi-établissement : l'utilisateur ne voit que les datasets du dossier qui le concerne (quelque soit l'établissement).

  • Superviseur multi-dossier : l'utilisateur voit tous les datasets.

 

Suivi : journal propre au datahub

Menu : Commerce & logistique / Data hub / Journal de log

Un journal de log dédié au datahub permet de suivre l’activité de l’automate. Il y a trace les actions, lancement, arrêts, changements d'états.

Suivi : journal application

Le journal d’application classique permet de tracer des anomalies extérieures aux états de l’automate. On y trouvera par exemple une erreur de code chemin ne permettant pas de trouver les fichiers.

 

Suivi : fichier de trace et gestion d’erreurs pour chaque dataset

Tous les datasets ont une gestion d’erreur dans le superviseur

Selon le type de dataset, il peut y avoir un fichier joint qui donne des détails sur les anomalies rencontrées