IA responsable

Une déclaration de notre part visant une utilisation de l’IA et des données fiable et sûre.

En position de pointe dans l’emploi de l’IA responsable pour la formation

Plus les systèmes d’IA intègrent notre apprentissage, notre travail et nos actions, plus nous sommes tenus de gérer leur utilisation de manière responsable et d’aider les gens à long terme. Il s’agit toutefois d’un objectif difficilement mesurable. C’est pourquoi la plupart des entreprises, y compris dans le domaine de l’éducation, utilisent des critères quantitatifs, tels que le temps de rétention du savoir. Mais cela conduit parfois à exploiter les faiblesses cognitives des utilisateurs, plus que cela ne permet de poursuivre un développement pérenne de l’apprentissage.

PINKTUM ouvre une tout autre voie. Grâce à notre expertise dans le développement des compétences et du savoir-être, acquise au fil de plusieurs décennies, et à notre compréhension approfondie des technologie liées à l’IA, nous établissons une nouvelle référence en matière d’IA responsable dans le domaine de la formation continue.

Nous développons des systèmes qui stimulent de manière ciblée des aptitudes humaines fondamentales, telles que la pensée critique, la réflexion sur soi et la prise de décision autonome. Car ces compétences deviennent plus que jamais une condition préalable au bien-être personnel ainsi qu’à la réussite des entreprises et des organisation.

Comité d’éthique humaine (HEC)

PINKTUM a mis en place un comité d’éthique. Celui-ci joue un rôle de supervision critique pour assurer que notre développement de l’IA serve le bien de tous et repousse les limites de la formation.

Le HEC combine les perspectives de l’éthique, de l’éducation, de la psychologie et de la technologie. Son travail ne se borne pas à surveiller les normes que nous nous imposons. Il contribue activement à trouver comment l’IA peut améliorer le développement du potentiel humain et l’environnement d’apprentissage. Nous vous tenons régulièrement informés des nouveautés concernant cette importante initiative.

Notre philosophie

Notre approche de l’IA responsable est guidée par trois principes fondamentaux :

1. Donner la priorité à l’autonomie humaine


Par « autonomie humaine », nous entendons la liberté de chaque personne de prendre des décisions informées et éclairées. C’est grâce à cette faculté que nous pouvons garder le contrôle de nos expériences numériques. Or, elle exige bien sûr la plus grande transparence, raison pour laquelle nous concevons des systèmes compréhensibles, restituons à nos utilisateurs la connaissance de leurs données, et leur donnons les moyens de comprendre les mécanismes de fonctionnement de l’IA. Nous les aidons également à naviguer de manière autonome dans l’environnement d’apprentissage numérique.

2. Renforcer la capacité d’agir de l’être humain


La capacité d’agir est la capacité de mettre en œuvre les décisions que l’on a prises, de sorte qu’on ne devienne pas un simple consommateur de technologie. Notre approche garantit que chaque personne reste un participant actif de son propre parcours d’apprentissage, qu’elle puisse suivre sa propre voie plutôt que des chemins prédéfinis, et qu’elle conserve ainsi la capacité humaine unique de se développer de manière indépendante.

3. Innover en permanence par la recherche


L’IA responsable nécessite un engagement conscient et une recherche continue sur la manière dont les systèmes d’IA affectent les utilisateurs. Nos recherches vont au-delà de l’amélioration de notre propre plateforme et contribuent à obtenir des connaissances fondamentales pour le développement de compétences humaines et d’une IA éthique dans l’ensemble de la société.

Sécurité

Analyse des risques rigoureuse et flux de données confidentiels

Vie privée

Utilisation de l’IA uniquement quand elle apporte une valeur ajoutée significative pour les apprenants

Transparence

Utilisation transparente de l’IA et des données, selon le principe de l’IA explicable

Conformité

Respect des critères du RGPD et des règlements nationaux

Orientation

Respect des principes éthiques de l’IA responsable

Formation continue

Sensibilisation aux normes juridiques et éthiques

Minimisation des données

Expériences d’apprentissage avec l’IA utilisant le strict minimum en termes de données

Stabilité

Test et reproductibilité des systèmes d’IA

Équité

Impartialité et égalité des chances sont aussi valables pour l’IA

Actualité

Code de conduite selon les nouvelles normes éthiques

Responsible AI Alliance

L’engagement sociétal est essentiel pour le développement de systèmes d’IA responsables. La complexité de l’IA exige une approche collaborative et un apprentissage commun entre les organisations qui s’engagent pour une mise en œuvre éthique de cette technologie. 

En tant que partenaire fondateur de la Responsible AI Alliance (Alliance pour une IA responsable), nous coopérons avec d’autres entreprises afin d’établir de bonnes pratiques et des conditions cadres mûrement réfléchies pour le développement de l’IA. Par le biais d’ateliers réguliers et d’initiatives de partage des connaissances, les membres de l’Alliance favorisent une compréhension mutuelle de la manière dont l’IA peut servir au mieux les intérêts des personnes tout en respectant les exigences légales. 

En participant activement, nous pouvons à la fois apporter des connaissances uniques dans le contexte de la formation et renforcer l’écosystème plus large de l’innovation en matière d’IA centrée sur l’être humain. Ensemble, nous construisons une communauté qui s’engage pour des technologies qui ne diminuent pas les aptitudes humaines, mais nous permettent au contraire de les élargir et de les approfondir.

Notre éthique de l’IA au service des apprenants

Ce qui semblait utopique il y a peu de temps encore est devenu possible – du jour au lendemain – grâce à l’intégration de l’intelligence artificielle. La technologie du futur est déjà là ! Mais la fascination pour les outils d’IA auto-apprenants comme ChatGPT s’accompagne également de préoccupations légitimes en matière de protection des données. En effet, la capacité à prendre des décisions automatisées augmente le risque de violation des droits et des libertés personnelles.

Contact

Si vous avez des questions ou besoin de soutien, n’hésitez pas à nous contacter. Nous trouverons une solution ensemble !