Possibilité de financement
Évaluer le soutien tenant compte des traumatismes pour le personnel militaire et améliorer l’accès aux ressources à l’aide de l’intelligence artificielle (IA).
Date limite pour présenter une demande
- Date limite :
- 9 janvier 2025
- Date de fin prévue du projet :
- 31 décembre 2025
- Montant de subvention disponible :
- 40 000 $
Contexte
L’objectif consiste à évaluer l’efficacité des agents conversationnels alimentés par l’IA et conçus pour offrir du soutien tenant compte des traumatismes aux membres du personnel militaire qui ont été victimes d’agressions sexuelles et de harcèlement. Les ressources existantes sont sous‑utilisées en raison des préjugés, de la peur de représailles et des procédures complexes. Ce projet vise à explorer les possibilités d’utilisation des agents conversationnels fondés sur un grand modèle de langage (GML) afin d’améliorer l’accès au soutien tenant compte des traumatismes et de veiller à ce qu’ils soient sécuritaires, confidentiels et exempts de jugement.
La priorité de recherche consiste à déterminer dans quelle mesure la technologie de GML jumelée à des connaissances spécialisées est efficace pour engager un dialogue empreint d’empathie, offrir des ressources et assurer la sécurité des utilisateurs. Le cœur du projet portera sur l’incidence des agents conversationnels sur le bien‑être émotionnel des utilisateurs, la confidentialité des données et la satisfaction globale à l’égard de l’expérience.
Objectifs de la recherche
Dans le cadre de cette possibilité de financement, nous sollicitons des propositions pour évaluer la faisabilité et l’efficacité de l'utilisation d’agents conversationnels fondés sur un GML pour offrir du soutien tenant compte des traumatismes aux membres du personnel militaire qui ont été victimes d’agressions sexuelles pendant leur service. Le projet doit comprendre des études sur les utilisateurs, un cadre de recherche, ainsi que la collaboration avec des experts en la matière pour examiner et mettre à jour la base de connaissances relatives aux agents conversationnels et la stratégie de réponse.
Une attention particulière devra être portée sur les principes éthiques de l’IA pour assurer la sécurité des utilisateurs, prévenir un nouveau traumatisme et protéger les renseignements personnels au moyen de protocoles d’évaluation rigoureux.
Méthodologie
Analyse documentaire et consultation d'experts : Établir les assises en déterminant les indicateurs de rendement pour votre agent conversationnel axé sur le rétablissement post‑traumatique.
Essais contrôlés : Mettre à l’essai l’agent conversationnel et en comparer l’efficacité par rapport à d’autres ressources de soutien traditionnelles afin de démontrer son incidence.
Intégration des commentaires des utilisateurs : Recueillir des données qualitatives et quantitatives pour peaufiner l’agent conversationnel et améliorer l’expérience de l’utilisateur.
Publication des résultats : Communiquer les résultats dans des revues scientifiques à comité de lecture et lors de conférences, ce qui est essentiel pour assurer la rigueur intellectuelle et la participation de la communauté.
Extrants souhaités
- Rédaction de documents et de rapports documentant le rendement de l’agent conversationnel fondé sur un GML, son incidence sur les utilisateurs et des observations sur les applications d’IA tenant compte des traumatismes.
- Études de convivialité montrant dans quelle mesure l’agent conversationnel permet de fournir un soutien personnalisé et empreint de compassion.
- Recommandations fondées sur les résultats de la recherche pour les futurs travaux de développement de systèmes d’IA tenant compte des traumatismes.
- L’objectif principal de cette possibilité de financement est la recherche et l’évaluation d’applications d’IA tenant compte des traumatismes. Même si des prototypes peuvent être élaborés à des fins de recherche, le projet vise avant tout à évaluer le rendement de l’agent conversationnel et à fournir des recommandations pour les futurs travaux de développement de systèmes d’IA.
Qualifications et exigences pour la sélection
Les membres de l’équipe de recherche doivent :
- Détenir un diplôme d’études supérieures en psychologie, en santé mentale ou dans un domaine connexe et posséder une compréhension profonde des soins tenant compte des traumatismes, ainsi que des principes psychologiques nécessaires pour concevoir un système de soutien efficace pour les victimes d’agressions sexuelles et de harcèlement.
- Détenir un diplôme d’études supérieures en informatique, en intelligence artificielle, en science des données ou dans un domaine connexe, et posséder une expertise en matière de développement et d’évaluation d’agents conversationnels fondés sur un GML, y compris la gestion de données, ainsi que la création et l’évaluation de modèles (prototypes).
- Posséder une expertise dans la réalisation de recherches empiriques sur les GML et les soins tenant compte des traumatismes, ainsi qu’une expérience des essais par les utilisateurs, de l’analyse de données et des évaluations qualitatives et quantitatives.
- Posséder une expertise en science des données d’IA, y compris la gestion de données, l’analyse de données, ainsi que la création et l’évaluation de modèles (prototypes). L’accès à une infrastructure d’IA de haut niveau constitue un atout.
- Avoir une expérience de collaboration reconnue avec des experts en santé mentale, en rétablissement post‑traumatique et en éthique de l’IA afin d’assurer une interaction sensible et responsable entre l’agent conversationnel et l’utilisateur.
- S’engager à adopter des pratiques de recherche éthiques, notamment en ce qui concerne la protection des renseignements personnels des utilisateurs, la protection des données et le respect des normes éthiques d’IA.
- Démontrer la capacité de publier des recherches d’envergure dans des revues scientifiques à comité de lecture axées sur les soins tenant compte des traumatismes et l’IA.
Date limite pour présenter une demande
Veuillez télécharger et soumettre le formulaire de demande de fonds de recherche.
Demandes de renseignements
Les questions concernant cette possibilité de financement peuvent être envoyées au bureau de la recherche d’ACC.