Savoirs :
- Connaissance des méthodes « word embedding » et des réseaux neuronaux
- Connaissance des maths appliquées (statistiques et probabilités)
- Connaissance des algorithmes et technologies d'exploration et de traitement des données
- Connaissance des méthodes et techniques d'apprentissage automatique, machine learning et de l'analyse statistique
- Connaissance des méthodes et technologies d'ingénierie documentaire et linguistique
- Connaissance des méthodes et outils de représentation par graphes et visualisation des données
Savoir-faire/Compétences opérationnelles :
- Maîtrise Python et les bibliothèques d'analyse et de traitement de données
(Spacy, Scikit, Scipy, Tensorflow, NLTK¿, NLP/TAL)
- Connaissance des formats documentaires (XML, JSON) et des méthodes de traitement des données volumineuses
- Connaissance des langages de programmation (NodeJS, API REST, Docker,MongoDB)
- Connaissance d' un ou plusieurs langages de traitement et de transformation de données (Exemple : XSLT)
- Utiliser les environnements Ubuntu, Shell, Git (hub)
- Rédiger et mettre à jour la documentation fonctionnelle et technique
- Piloter un projet et mettre en œuvre des méthodes agiles (Scrum, XP, Kanban ...)
- Maîtriser l'anglais technique
Savoir-être/Compétences comportementales :
- Autonomie
- Rigueur
- Travailler en équipe
- Être force de proposition
- Sens relationnel
|