Phare : logo phirio Phirio  : apprendre à apprendre

Phare : logo phiriopuzzle pour les serious games Phirio

Phare : logo phirioDataCenter de Phirio

Phare : logo phirioIllustration des Serious Games Phirio

PrecedentSuivant
  • Formations
    • Catalogue
    • Cloud
    • Big Data
    • Applicatif
    • DataScience
    • Infrastructures
    • Accompagnement
    • Sur mesure
  • Cheat sheets & labs
    • Présentation des technologies
    • Le Laboratoire
    • Blockchain
    • Big Data
    • Liens utiles
  • Informations pratiques
    • Phirio Team
    • Prestations
    • Qualité
    • Centre de formation
    • Nos références
  • Contact
    • Plan d'accès
    • Contact post-formation
    • Recrutement
    • Demande d'informations
  1. Vous êtes ici : Accueil
  2. Informations
  3. Protection donnees personnelles

Protection des données personnelles

Cette section décrit l'usage que nous faisons des données échangées entre votre navigateur et notre site Web.

Vous pouvez utiliser notre site sans avoir à décliner votre identité et à fournir des informations personnelles. Cependant, dans le cas où vous souhaitez établir une correspondance, soumettre une candidature à un poste ou traiter une commande, nous pourrons vous demander des informations personnelles par le biais d'un formulaire. Les informations que vous nous fournirez pourront être complétées pour amélliorer la qualité de nos échanges.

Traitement des données du formulaire



Les informations recueillies sur ce formulaire sont enregistrées dans un fichier et informatisé par Pythagore Formation et Développement. Les traitements ont pour seules finalités la constitution et l'exploitation d'un fichier à des fins d'information ou de communication externe, pour pouvoir répondre au mieux à vos attentes, à l'exclusion de toute sollicitation commerciale. Un traitement des données de connexion à des fins purement statistiques peut être effectué. Elles sont conservées pendant un an et sont destinées à Pythagore Formation et Développement. Conformément à la loi « informatique et libertés », vous pouvez exercer votre droit d'accès aux données vous concernant et les faire rectifier en contactant la société Pythagore Formation et Développement 9, rue du faubourg Poissonnière - 75009 Paris - RCS Paris B 398 145 474.

Cookies

Qu'est ce qu'un cookie?

Un cookie ou traceur est une information envoyée par les serveurs HTTP pour pouvoir suivre une session, c'est à dire, un enchainement d'opérations sur un même site : formulaires, paniers, achats en ligne, etc.
Ils sont nécessaires pour ce type d'opérations.
Comme le serveur HTTP (le site Web) connait les différentes opérations qu'un navigateur effectue, il est possible de suivre le parcours d'un internaute.

Ce suivi peut servir à des fins de statistiques. C'est le cas de notre site phirio.fr.

Sur certains sites marchands, il est possible de relier les informations que vous fournissez (nom, prenom, ...) au suivi du parcours de pages. Cela leur permet, par exemple, d'afficher de la publicité ciblée. Ce n'est pas le cas de notre site phirio.fr.

Utilisation des cookies sur notre site

Notre site utilise des cookies de Universal Analytics et des cookies de Phirio. Ces cookies nous aident à établir des statistiques et volumes de fréquentation et d'identifier les contenus les plus pertinents ainsi qu'à repérer certains dysfonctionnements.
Cela nous permet d'améliorer l'intérêt et l'ergonomie de nos services.

Durée de vie

Ils expirent pendant ou après la session, ou après un délai ne dépassant pas 13 mois, conformément aux recommandations de la CNIL.

Traceurs utilisés

Traceurs Google Analystics/Universal Analytics :
_utmaCe cookie est utilisé pour distinguer les visiteurs uniques d'un site. Il est mis à jour à chaque page vue. Durée de vie : 2 ans.
_utmbCe cookie expire dès que l'internaute reste inactif sur le site phirio.fr plus de 30 minutes.
_utmcComplément à _utmb pour déterminer si il s'agit d'une nouvelle visite. Il expire en fin de session.
_utmtPermet le suivi de la charge réseau. Expire au bout de dix minutes.
_utmzPermet le suivi statistique. Il stocke : la source de trafic, le support de cette source de trafic, le mot clé tapé si l'internaute consulte le site en provenance d'un moteur de recherche, etc. Ce cookie a une durée de vie de 6 mois.
_utmvCe cookie n'est normalement pas présent dans une configuration par défaut du code de suivi. Il fait référence aux informations renseignées lors de l'appel à la fonction _setVar().

Traceurs Phirio :
PFDcontextpermet conserver vos séléctions entre les pages du site. Expire à la fin de la session.
hasConsentstocke votre choix de consentement. Durée de vie : 13 mois.

Les traceurs Google Analystics/Universal Analytics sont envoyées à Google Inc
Pour en savoir plus sur les traceurs utilisés par Google : Google Analytics/Tracking

Actions

Vous pouvez autoriser, bloquer ou supprimer les cookies installés sur votre poste en paramétrant les options de votre navigateur. Pour les navigateurs les plus courants, vous trouverez des indications via les liens suivants :
  • Firefox
  • Chrome
  • Internet Explorer
  • Opera
  • Safari

Vous pouvez aussi vous opposer à la mise en oeuvre des cookies.
Cliquez ici pour vous opposer aux cookies

Enfin, nous tenons à vous informer que la désactivation d'un cookie pourrait empêcher ou rendre difficile la navigation ou la prestation des services proposés sur notre site Internet.

Phirio

+33 1 55 33 52 10
info@phirio.fr
Calendrier
  • Sessions garanties
  • Formations
Nos sessions garanties
30% de remise sur le tarif catalogue
Architecture cloud d'entreprise
du 22 au 24 septembre
Elasticsearch : indexation de contenu
du 23 au 24 septembre
ElasticStack pour administrateurs
du 25 au 26 septembre
Python avancé pour data-scientists
du 29 septembre au 2 octobre
Openstack : installation et configuration
du 6 au 8 octobre
Développement web avec Django
du 7 au 10 octobre
Gestion de parc avec glpi / Fusion
du 15 au 17 octobre
Serveur web Apache
du 20 au 22 octobre
Neo4j : graphes et analyse
du 20 au 21 octobre
Stockage distribué avec ceph
du 20 au 21 octobre
Hadoop : administration cloudera
du 22 au 24 octobre
Programmation Scala
du 22 au 24 octobre
Unix Linux introduction
du 22 au 24 octobre
Le langage Go
du 3 au 6 novembre
IoT - Etat de l'art de l'internet des objets connectés
du 12 au 13 novembre
Architecture cloud d'entreprise
du 17 au 19 novembre
Les architectures et infrastructures pour le Bigdata
du 18 au 19 novembre
Supervision avec prometheus
du 24 au 25 novembre
Intelligence artificielle : Etat de l'art (OpenAI, Google Gemini, AWS)
du 27 au 28 novembre
Zabbix administration
du 1er au 3 décembre
Spark : développer des applications pour le Big Data
du 1er au 3 décembre
Dataiku DSS
du 8 au 10 décembre
BigData supervision:Grafana Kibana Graphite Prometheus
du 15 au 17 décembre
Développement web avec Django
du 16 au 19 décembre
Gestion de parc avec glpi / Fusion
du 17 au 19 décembre








Intelligence artificielle

Intelligence artificielle : Etat de l'art (OpenAI, Google Gemini, AWS)
27/11-28/11
IA - Deep Learning : tensorflow, Caffe, Pytorch
26/11-28/11
IA - langage : NLP, traduction, analyse
01/12-02/12
IA - traitement images : Keras, Pytorch, OpenCV
03/12-05/12
IA - conversationnel : Chatbot, ChatGPT, Google Gemini, AWS Lex, Bedrock
08/12-09/12
IA - analyse , génération de sons : WaveNet, AWS Transcribe
10/12-11/12
IA - analyse et production de code informatique
15/12-16/12
IA - génération de modèles
17/12-18/12
IA - programmation quantique
le 19/12
MLOps : gestion de modèles
22/12-23/12

Data-science

Machine learning, l'état de l'art
20/10-21/10
Machine Learning avec scikit-learn
13/10-14/10
Python avancé pour data-scientists
15/12-18/12
Spark ML
06/10-07/1011/12-12/12
Dataiku DSS
08/12-10/12
Neo4j : graphes et analyse
20/10-21/10
Les fondamentaux de l'analyse statistique avec R
04/12-05/12

Data-engineering

Spark : développer des applications pour le Big Data
01/12-03/12
Dask : mise en oeuvre, programmation
03/11-05/11
Talend : intégration de données
12/11-14/11
Apache Kafka
15/12-17/12
Hadoop : développement
11/12-12/12
ElasticStack : présentation
le 13/11le 16/12
Elasticsearch : indexation de contenu
18/12-19/12
BigData : intégration SQL, Hive, SparkDataFrames
27/11-28/11

Big Data

Etat de l'art du BigData
le 17/11
Les architectures et infrastructures pour le Bigdata
18/11-19/11
NoSQL : les fondamentaux
20/11-21/11
Hadoop, l'écosystème
le 12/11
Apache Cassandra , mise en oeuvre et administration
06/10-08/1015/12-17/12
MongoDB, mise en oeuvre et administration
13/10-15/1018/11-20/11
Hadoop HBase : mise en oeuvre et administration
16/10-17/1005/12-06/12
Hadoop : administration cloudera
22/10-24/10
ElasticStack pour administrateurs
22/12-23/12

SQL

SQL pour non informaticien
01/12-03/12
SQL, les fondamentaux
08/12-10/12
MySQL prise en main et administration
01/10-03/1017/12-19/12
PostgreSQL administration
06/10-08/1008/12-10/12
PostgreSQL administration avancée
09/10-10/1011/12-12/12
MariaDB administration
17/11-19/11

Infrastructures techniques/Cloud

Cloud : technologies et enjeux
le 16/10
Architecture cloud d'entreprise
17/11-19/11
Openstack : installation et configuration
06/10-08/10
Openstack : IaC avec Heat, Terraform
24/11-25/11
CloudStack : configuration cloud d'entreprise
Stockage distribué avec ceph
20/10-21/10

Infrastructures techniques/Orchestration

Etat de l'art : solutions d'orchestration
20/10-22/1015/12-17/12
Ansible : industrialiser les déploiements
22/12-23/12
Puppet : automatiser la gestion des configurations
06/10-07/1015/12-16/12
Chef : automatiser la gestion des serveurs
24/11-25/11
Terraform : orchestrer la configuration de votre infrastructure
13/10-14/1015/12-16/12

Infrastructures techniques/Virtualisation

Virtualisation avec kvm
Linux containers, LXC : mise en oeuvre
Docker : créer et administrer des conteneurs virtuels d'applications
06/10-08/1015/12-17/12
Kubernetes : optimisation conteneurs
05/12-06/12
Réseaux virtuels avec OpenvSwitch

Infrastructures techniques

Gestion de parc avec glpi / Fusion
15/10-17/1017/12-19/12
Serveur web Apache
20/10-22/1017/12-19/12
Serveur Nginx
26/11-28/11
Unix Linux introduction
22/10-24/1010/12-12/12
Le Shell
20/10-21/1008/12-09/12
Administration Linux
01/12-05/12
Administration avancée Linux
08/12-12/12
Haute disponibilité Linux
Blockchain : mise en pratique
20/10-21/1015/12-16/12
Single sign-on avec Shibboleth : installation, configuration
09/10-10/1011/12-12/12

Supervision infrastructures

Zabbix administration
01/12-03/12
Supervision avec prometheus
25/11-26/11
BigData supervision:Grafana Kibana Graphite Prometheus
15/12-17/12
Mise en oeuvre snmp

Développement

Git : Gestion du contrôle de versions
13/10-14/1018/12-19/12
Jenkins : intégration continue
15/10-16/1015/12-16/12
Programmation Python
20/10-23/1008/12-11/12
Python avancé : programmation scientifique
Python : Jupyter Notebook
le 19/12
Le langage Go
03/11-06/11
Programmation Scala
22/10-24/1024/11-26/11
Le langage Perl
Développement web avec PHP
Programmation Java
Programmation avancée Java

Visualisation de données

Qlik Sense : create visualizations
23/10-24/1022/12-23/12
Tableau Desktop : exploitation de données
01/12-02/12
Utilisation de Kibana
le 06/11
Développement web avec Django
07/10-10/1016/12-19/12
Interfaces graphiques en Python
13/10-15/1008/12-10/12
Visualisation avancée de données avec Python
26/11-28/11
Developpement Web avec Bootstrap
09/10-10/1018/12-19/12

Embarqué et robotique

Initiation au langage C
Perfectionnement en langage C
Programmation système en langage C
Programmation noyau drivers C
IoT - Etat de l'art de l'internet des objets connectés
12/11-13/1102/12-03/12
Conception robotique avec ROS
24/11-26/11
Computer Vision : OpenCV, Jetson Nvidia
01/12-03/12
Simulation avec Gazebo
04/12-05/12

Cycles certifiants métiers

Cycle certifiant architecte BigData
Cycle certifiant développeur BigData
Cycle certifiant administrateur BigData
Cycle certifiant data-scientist
Cycle certifiant : développeur robotique

Serious Games

Serious Game : architecture BigData
Serious Game : supervision infrastructure BigData
Serious Game : implémentation d'un réseau de neurones
Serious Game : dialoguer avec votre assistant IA préféré
le 05/12
Serious Game : création d'un assistant IA



quelques une de nos réalisations
  • Recrutement
  • Data Dock logo Data Dock
  • Qualiopi
    logo Qualiopi
    La certification qualité a été délivrée par Proneo Certification au titre de la catégorie d'action suivante : ACTIONS DE FORMATION.

INFORMATIONS LEGALES

  • Protection des données personnelles
  • Mentions légales et crédits
  • Condition générales d'utilisation (CGU)

INFORMATIONS PRODUITS

  • Calendrier
  • Présentations de technologies
2025 Phirio Paris