Une meilleure transparence avec Atlassian Intelligence et Rovo
Notre engagement « non au baratin » en faveur d'une communication ouverte, de la responsabilité et d'aider les équipes à utiliser l'IA de manière responsable.
Rovo
Sélectionnez une fonctionnalité Rovo ci-dessous pour avoir un aperçu transparent des cas d'usage et de l'utilisation des données.
Les agents Rovo sont optimisés grâce aux grands modèles de langage (LLM) développés par OpenAI et Google, ainsi qu'à l'aide d'une association de LLM en open source (notamment la série Llama) et d'autres modèles d'apprentissage machine. Ces modèles comprennent la série GPT d'OpenAI et la série Gemini de Google. Les agents Rovo utilisent ces modèles pour fournir des fonctionnalités permettant d'analyser et de générer des réponses aux invites en langage naturel, et fournir des réponses pertinentes à partir d'Atlassian et des produits tiers connectés. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI et de Google. Pour en savoir plus sur les modèles de langage en open source, consultez les informations sur la série Llama. |
Avec Rovo, nous fournissons un certain nombre d'agents prêts à l'emploi pour une variété de tâches telles que l'aide à la prise de décision, la publication de documentation de connaissances et le rangement ou l'organisation de tickets dans Jira. Les agents sont des coéquipiers spécialisés en IA qui peuvent aider les équipes humaines à faire avancer le travail rapidement et efficacement. La marche à suivre :
Nous pensons que les agents Rovo fonctionnent mieux dans les scénarios où :
|
Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour alimenter le travail des agents Rovo, ils peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que les agents Rovo sont moins utiles dans les scénarios suivants :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont les agents Rovo utilisent vos données. Cette section complète les informations disponibles dans notre Trust Center. Ce que nous traitons :
En ce qui concerne vos données, les agents Rovo appliquent les mesures suivantes.
Les informations ci-dessus s'appliquent aux agents fournis par Atlassian. Pour en savoir plus, consultez les directives relatives aux données, à la confidentialité et à l'utilisation de Rovo | Rovo | Support Atlassian. Pour plus d'informations sur les agents fournis par des tiers, consultez leurs conditions générales relatives aux fournisseurs concernant leurs applications. En savoir plus sur Atlassian Intelligence |
La fonctionnalité Rovo Chat est optimisée grâce aux grands modèles de langage (LLM) développés par OpenAI et Google, ainsi qu'à l'aide d'une association de LLM en open source (notamment la série Llama) et d'autres modèles d'apprentissage machine. Ces modèles comprennent la série GPT d'OpenAI et la série Gemini de Google. Rovo Chat utilise ces modèles pour analyser et générer des réponses aux invites en langage naturel, et fournir des réponses pertinentes à partir d'Atlassian et des produits tiers connectés. Les réponses sont générées par ces grands modèles linguistiques sur la base de vos entrées et sont de nature probabiliste. En d'autres termes, ces grands modèles de langage génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les entraîner. Découvrez-en plus sur les fonctionnalités des modèles d'OpenAI et de Google. Pour en savoir plus sur les modèles de langage en open source, consultez les informations sur la série Llama. |
Rovo Chat vous permet d'accéder aux connaissances de votre organisation via une interface conversationnelle. Cela signifie que vous pouvez demander à Rovo d'écrire, de lire, de revoir ou de créer des choses de la même manière que vous le feriez à une personne, sans perturber votre workflow. Rovo Chat comprend le contexte de votre travail (à la fois au sein d'Atlassian et de vos produits tiers connectés) pour répondre à vos questions ou vous aider à trouver des idées ou des informations. Nous pensons que Rovo Chat fonctionne mieux dans les scénarios où :
Les utilisateurs peuvent également accéder à Rovo Chat via une extension de navigateur Chrome. Pour en savoir plus sur l'accès à Rovo Chat, cliquez ici et ici. |
Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour alimenter le travail de Rovo Chat, ils peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que Rovo Chat est moins utile dans les scénarios où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Rovo Chat et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont Rovo Chat utilise vos données. Cette section complète les informations disponibles dans notre Trust Center. Ce que nous traitons : Vos prompts (contributions) et les réponses (résultats).
En ce qui concerne vos données, Rovo Chat applique les mesures suivantes.
OpenAI est un sous-traitant figurant sur notre liste de sous-traitants. Il n'utilise pas vos entrées et sorties à d'autres fins que le traitement de votre demande. Cette fonctionnalité respecte les autorisations de votre instance. Par exemple, si vous n'avez pas accès à une certaine page Confluence, la réponse que vous recevrez ne vous suggèrera pas de contenu de cette page. Si vous ne souhaitez pas que votre contenu soit disponible en réponse aux autres utilisateurs de votre instance, demandez à l'administrateur de votre organisation de vérifier que vos autorisations sont correctement définies. Lorsque vous accédez à Rovo Chat en passant par l'extension de navigateur Chrome, l'assistant ne lit que le contenu de la page web consultée pour compléter le contenu déjà présent dans vos produits Atlassian. Aucune donnée supplémentaire provenant de la page web ne sera stockée. En savoir plus sur Atlassian Intelligence En savoir plus sur l'utilisation d'Atlassian Intelligence |
La Recherche Rovo utilise l'IA pour améliorer les fonctionnalités de recherche d'Atlassian et d'outils tiers. La Recherche Rovo est optimisée grâce aux grands modèles de langage (LLM) développés par OpenAI et Google, ainsi qu'à l'aide d'une association de LLM en open source (notamment la série Llama) et d'autres modèles d'apprentissage machine. Ces modèles comprennent la série GPT d'OpenAI et la série Gemini de Google. La Recherche Rovo utilise ces modèles pour fournir des fonctionnalités telles que la recherche sémantique, le classement par pertinence et le traitement du langage naturel. Cela inclut l'analyse et la génération de réponses aux requêtes de recherche en langage naturel, et la fourniture de réponses pertinentes à partir d'Atlassian et des produits tiers connectés. Les réponses sont générées par ces LLM sur la base de vos entrées et sont de nature probabiliste. En d'autres termes, ces LLM génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les entraîner. En savoir plus sur les fonctionnalités des modèles d'OpenAI et de Google. Pour en savoir plus sur les modèles de langage en open source, consultez les informations sur la série Llama. |
La Recherche Rovo permet aux utilisateurs de réaliser des recherches sur de multiples outils et plateformes, y compris des produits Atlassian et des produits tiers connectés, en fournissant des résultats contextuels et pertinents afin d'améliorer la collaboration et la productivité des équipes. Nous pensons que la Recherche Rovo fonctionne mieux dans les scénarios où :
|
Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour alimenter la Recherche Rovo, ils peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que la Recherche Rovo est moins utile dans les scénarios où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Rovo et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont la Recherche Rovo utilise vos données. Cette section complète les informations disponibles dans notre Trust Center. Ce que nous traitons :
En ce qui concerne vos données, la Recherche Rovo applique les mesures suivantes.
En savoir plus sur Atlassian Intelligence Qu'est-ce qu'Atlassian Intelligence ? | Support Atlassian Rovo : débloquez les connaissances organisationnelles grâce à GenAI | Atlassian |
Accélérez le travail grâce à l'IA
Sélectionnez une fonctionnalité Atlassian Intelligence ci-dessous pour avoir un aperçu transparent des cas d'usage et de l'utilisation des données.
- ChatOps basés sur l'IA pour la gestion des incidents
- AI drafts
- AI Summaries in Company Hub Cards
- Ressources d'IA associées
- Suggestion d'IA
- Automatisation
- Regroupement des alertes
- Résumé rapide de Confluence
- Définir les termes
- IA générative dans l'éditeur
- Reformatage des tickets
- Résumer les informations des tickets
- Résumer les liens intelligents
- Agent de service virtuel
- Résumer les informations de tickets à l'aide d'Atlassian Intelligence
- Répartition du travail par l'IA
- ChatOps basés sur l'IA pour la gestion des incidents
- AI drafts
- AI Summaries in Company Hub Cards
- Ressources d'IA associées
- Suggestion d'IA
- Automatisation
- Regroupement des alertes
- Résumé rapide de Confluence
- Définir les termes
- IA générative dans l'éditeur
- Reformatage des tickets
- Résumer les informations des tickets
- Résumer les liens intelligents
- Agent de service virtuel
- Résumer les informations de tickets à l'aide d'Atlassian Intelligence
- Répartition du travail par l'IA
Automatisation avec Atlassian Intelligence
Les fonctions des ChatOps basés sur l'IA pour la gestion des incidents sont alimentées par d'importants modèles de langage développés par OpenAI, ainsi que par un ensemble de puissants modèles de langage open source (notamment la série Llama et la série Phi) et d'autres modèles d'apprentissage machine. Ces LLM incluent la série de modèles GPT d'OpenAI. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces grands modèles de langage génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. Pour en savoir plus sur les fonctionnalités des modèles d'OpenAI ou sur cette approche, consultez les articles de recherche d'OpenAI. Pour plus d'informations sur les modèles de langage open source, consultez les informations sur les séries Llama et Phi. |
Les ChatOps basés sur l'IA pour la gestion des incidents aident vos utilisateurs à accélérer le processus de résolution des incidents en proposant un résumé de l'incident concerné et de toutes les conversations correspondantes aux nouveaux utilisateurs lorsqu'ils sont ajoutés au canal Slack lié au ticket de l'incident dans Jira Service Management. De plus, ces outils peuvent enregistrer les conversations Slack dans Jira Service Management afin qu'il soit possible de s'y référer ultérieurement. Nous pensons que les ChatOps basés sur l'IA de gestion des incidents fonctionnent de manière optimale lorsque :
|
N'oubliez pas qu'en raison du fonctionnement des modèles utilisés pour alimenter les ChatOps basés sur l'IA pour la gestion des incidents, ces modèles peuvent parfois se comporter de manière imprécise, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons constaté que l'utilisation des ChatOps basés sur l'IA pour la gestion des incidents est moins utile lorsque :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez les ChatOps basés sur l'IA pour la gestion des incidents ainsi qu'à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Vous devriez également envisager de revoir les autorisations afin de vous assurer que les utilisateurs disposent des niveaux d'accès appropriés aux incidents pertinents ainsi qu'aux canaux Slack. |
Vous avez probablement des questions sur la façon dont les ChatOps basés sur l'IA pour la gestion des incidents utilisent vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, les ChatOps basés sur l'IA pour la gestion des incidents appliquent les mesures suivantes :
|
AI drafts is powered by large language models developed by OpenAI and Anthropic, as well as a combination of open-source transformer-based language models and other machine learning models. These large language models include OpenAI’s GPT series of models and Anthropic’s Claude series of models. Atlassian Intelligence uses these models to analyze and generate natural language within our products. The open-source encoder models convert your textual inputs into numerical forms (embeddings) which are used for identifying and forming topics from your inputs. These large language models generate responses based on your inputs and are probabilistic in nature. This means that their responses are generated through predicting the most probable next word or text based on the data that they have been trained on. Read more about the capabilities of OpenAI’s models and Anthropic’s models. For more information on open-source language models, see information on embedding models. |
AI drafts suggests pre-generated drafts of knowledge articles for your admins and agents to consider. This feature generates drafts for the most common work items in a Jira Service Management project, using the details and comments within work items in that project. This allows your service teams to increase the coverage of your knowledge base articles more quickly and easily, which will, in turn, benefit the performance of other features in Jira Service Management. For example, knowledge articles created using AI drafts can then be used by Virtual Service Agent’s AI answers feature to resolve requests from your help seekers more easily and quickly. Read more about AI answers in virtual service agent. We believe that AI drafts work best in scenarios where:
|
It’s important to remember that because of the way that the models used to power AI drafts work, these models can sometimes behave in ways that are inaccurate, incomplete, or unreliable. For example, the responses that you receive might not accurately reflect the content that they are based on, or include content that sounds reasonable but is false or incomplete. We’ve found that AI drafts are less useful in scenarios where:
For this reason, we encourage you to think about the situations when you use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others. You might also want to think about:
|
We understand you may have questions about how AI drafts use your data. This section supplements the information available on our Trust Center. We process:
When it comes to your data, AI drafts apply the following measures.
|
AI Summaries in Company Hub Cards is powered by large language models developed by OpenAI. These large language models include OpenAI’s GPT series of models. Atlassian Intelligence uses these models to analyze and generate natural language within our products. These models generate responses based on your inputs and are probabilistic in nature. This means that their responses are generated through predicting the most probable next word or text based on the data that they have been trained on. Read more about the capabilities of OpenAI’s models. |
AI summaries in Company Hub Cards helps you to quickly populate and publish your Company Hub, by suggesting AI-generated descriptions for cards. This feature uses Atlassian Intelligence to generate a summary of the linked Confluence page or blog post for your Company Hub card. We believe that AI Summaries in Company Hub Cards works best in scenarios where:
|
It’s important to remember that because of the way that the models used to power AI Summaries in Company Hub Cards work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable. For example, the responses that you receive might not accurately reflect the content that they are based on, or include content that sounds reasonable but is false or incomplete. We’ve found that AI Summaries in Company Hub Cards is less useful in scenarios where:
For this reason, we encourage you to think about the situations when you use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others. |
We understand you may have questions about how AI Summaries in Company Hub Cards uses your data. This section supplements the information available on our Trust Center. We process:
When it comes to your data, AI Summaries in Company Hub Cards applies the following measures.
|
Les ressources liées à l'IA sont alimentées par d'importants modèles de langage développés par OpenAI, ainsi que par un ensemble de puissants modèles de langage libres (notamment la série Llama et la série Phi) et d'autres modèles d'apprentissage machine. Ces LLM incluent la série de modèles GPT d'OpenAI. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits ainsi que pour fournir des réponses pertinentes à partir d'Atlassian et de produits tiers connectés. Ces grands modèles de langage génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. Pour en savoir plus sur les fonctionnalités des modèles d'OpenAI ou sur cette approche, consultez les articles de recherche d'OpenAI. Pour plus d'informations sur les modèles de langage open source, consultez les informations sur les séries Llama et Phi. |
Atlassian Intelligence permet à vos utilisateurs d'accélérer le processus de résolution des incidents en leur suggérant une liste de ressources auxquelles ils peuvent se référer à partir de vos espaces et articles de la base de connaissances, de vos tickets Jira et (si vous êtes un client Rovo) de tous les produits tiers que vous avez intégrés par le biais de Rovo. En savoir plus sur Rovo et les outils tiers. Nous pensons que les ressources liées à l'IA sont plus efficaces dans les cas suivants :
|
N'oubliez pas qu'en raison du mode de fonctionnement des modèles utilisés pour alimenter les ressources liées à l'IA, ces modèles peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que les ressources liées à l'IA sont moins utiles lorsque :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont les ressources liées à l'IA utilisent vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, les ressources liées à l'IA appliquent les mesures suivantes :
|
Les suggestions d'IA de Jira Service Management s'appuient sur de grands modèles de langage (LLM) développés par OpenAI et d'autres modèles d'apprentissage machine. Ces LLM incluent la série de modèles GPT d'OpenAI. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces grands modèles de langage génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI. |
Grâce aux suggestions de l'IA dans Jira Service Management, votre équipe peut rapidement être opérationnelle en rassemblant des informations contextuelles importantes concernant vos demandes de service et vos incidents en un coup d'œil. Atlassian Intelligence aide votre équipe à :
Les suggestions d'IA de Jira Service Management peuvent également recommander aux agents de faire remonter une demande ou un incident lorsque le SLA applicable est sur le point d'être violé. Dans le cas d'une demande de service, cette fonctionnalité peut également suggérer aux agents de faire remonter la demande lorsque les modèles utilisés pour alimenter ces suggestions identifient, sur la base du texte des commentaires du rapporteur, un sentiment d'urgence ou de colère. Nous pensons que les suggestions d'IA dans Jira Service Management fonctionnent de manière optimale lorsque :
|
Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour alimenter les suggestions d'IA dans le travail de Jira Service Management, ces modèles peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons constaté que les suggestions d'IA dans Jira Service Management sont moins utiles dans les cas où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont les suggestions d'IA utilisent vos données dans Jira Service Management. Cette section complète les informations disponibles dans notre Trust Center. Ce que nous traitons :
En ce qui concerne vos données, les suggestions d'IA appliquent les mesures suivantes :
|
L'automatisation à l'aide d'Atlassian Intelligence est optimisée par de grands modèles de langage développés par OpenAI, Google et Anthropic, ainsi que par une combinaison de grands modèles de langage open source (dont les séries Llama, Phi et Mixtral) et d'autres modèles d'apprentissage machine. Ces grands modèles de langage incluent les séries GPT d'OpenAI, Gemini de Google et Claude d'Anthropic. Atlassian Intelligence utilise ces modèles afin d'analyser les saisies en langage naturel et générer pour vous une règle d'automatisation dans Jira et Confluence. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les entraîner. En savoir plus sur les fonctionnalités des modèles d'OpenAI, de Google et d'Anthropic. Pour plus d'informations sur les modèles linguistiques open source, consultez les informations sur les séries Llama et Phi. |
La création de règles d'automatisation est au cœur de l'expérience d'automatisation quotidienne, et nous voulons vous faciliter la tâche en ajoutant Atlassian Intelligence au générateur de règles d'automatisation de Jira et Confluence. Vous pouvez désormais facilement créer des règles d'automatisation en saisissant et en décrivant ce que vous souhaitez automatiser, puis en laissant Atlassian Intelligence prendre en charge l'essentiel des tâches de création des règles. En savoir plus sur l'automatisation à l'aide d'Atlassian Intelligence pour Jira et fou Confluence. Nous estimons que l'automatisation avec Atlassian Intelligence pour Jira et Confluence est particulièrement adaptée à des situations dans lesquelles vous ne savez pas par où commencer, ou bien lorsque vous souhaitez accélérer le processus de création de règles. Vous ne savez pas comment créer une règle d'automatisation de manière optimale ?Les règles d'automatisation sont créées en combinant différents types de composants : déclencheurs, actions, conditions et branches. Vous pouvez vous représenter les composants comme différents éléments constitutifs d'une règle. Pour créer une règle avec succès via Atlassian Intelligence, votre règle doit au minimum contenir un déclencheur et une action. Par exemple : Dans Jira : Chaque lundi, identifiez toutes les tâches dont la date d'échéance est inférieure ou égale à 7 jours, puis envoyez un e-mail de rappel aux personnes responsables. Quand un ticket passe à l'état En cours de test, l'assigner à John Smith. Dans Confluence :
Par ailleurs, pour qu'une règle soit créée avec succès, tous ses composants doivent être pris en charge par l'automatisation avec Atlassian Intelligence. Cela signifie que tous les déclencheurs, toutes les actions, conditions ou branches de votre règle doivent être compatibles avec l'automatisation dans Jira et/ou Confluence. |
Il est important de se rappeler qu'en raison du fonctionnement propre aux modèles utilisés pour alimenter l'automatisation avec Atlassian Intelligence, ces modèles peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que l'automatisation avec Atlassian Intelligence était moins utile dans les scénarios où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. L'automatisation avec Atlassian Intelligence ne fonctionnera qu'avec les composants d'automatisation disponibles dans Jira et Confluence. Il vous sera également utile d'être aussi précis que possible dans les demandes adressées à Atlassian Intelligence, tel que décrit ci-dessus. |
Vous avez probablement des questions sur la façon dont l'automatisation avec Atlassian Intelligence utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, Atlassian Intelligence pour l'automatisation Confluence applique les mesures suivantes :
Tous les fournisseurs de LLM tiers sont des sous-traitants et sont répertoriés comme tels sur notre page consacrée aux sous-traitants. Ils n'utilisent pas vos contributions et résultats à d'autres fins que le traitement de votre demande. Cette fonctionnalité respecte les autorisations de votre instance. Par exemple, si vous n'avez pas accès à un projet ou à une page spécifique, la réponse que vous recevrez ne vous suggèrera pas de contenu de ces actifs. Si vous ne voulez pas que votre contenu soit disponible en réponse aux autres utilisateurs de votre instance, demandez à l'administrateur de votre organisation de vérifier que vos autorisations sont correctement définies. |
Regroupement des alertes
Le regroupement des alertes par Atlassian Intelligence est optimisé grâce aux grands modèles de langage (LLM) développés par OpenAI et Google. Ces modèles sont dotés d'un algorithme conçu pour identifier des profils dans les données d'alerte, ainsi que les séries de modèles GPT d'OpenAI et Gemini de Google. Atlassian Intelligence utilise ces modèles d'apprentissage machine pour analyser et générer des groupes d'alertes et proposer des suggestions connexes (anciens groupes d'alertes et anciens intervenants en cas d'alertes) au sein de nos produits en fonction de la similitude du contenu des alertes ou des tags utilisés. Atlassian Intelligence utilise ensuite de grands modèles linguistiques pour analyser et générer des descriptions et du contenu en langage naturel pour ces groupes dans nos produits. Ces grands modèles linguistiques génèrent des réponses en fonction de vos saisies et sont probabilistes. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI et de Google. |
Le regroupement des alertes utilise Atlassian Intelligence pour identifier et regrouper les alertes similaires. Il vous aide également en identifiant et en recommandant d'anciens groupes d'alertes similaires et d'anciens intervenants (ou équipes d'intervenants) en cas d'alertes, en fonction de la similitude sémantique du contenu des alertes ou des tags utilisés. Lorsque vous souhaitez transformer le groupe d'alertes en incident, le regroupement des alertes prérenseigne également toutes les informations contextuelles que vous pourrez consulter dans le cadre du processus de création de l'incident. Nous pensons que le regroupement des alertes fonctionne mieux dans les scénarios suivants :
|
Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour alimenter le regroupement des alertes, ces modèles peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Dans le cas des groupes d'alertes que vous voyez, ils ne reflètent peut-être pas exactement la similitude sémantique de leurs tags. Nous avons découvert que le regroupement des alertes est moins utile dans les scénarios suivants :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Envisagez également de vous assurer que vous et votre équipe suiviez des pratiques cohérentes en matière d'utilisation des tags d'alerte. |
Vous avez probablement des questions sur la façon dont le regroupement des alertes utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
Nous traitons les données de vos alertes pour créer une version du modèle d'apprentissage machine afin de reconnaître des modèles spécifiques à vos alertes. Cette version n'est utilisée que dans le cadre de votre expérience :
En ce qui concerne vos données, le regroupement des alertes applique les mesures suivantes.
|
Synthétisez les pages et les blogs à l'aide d'Atlassian Intelligence, optimisé grâce aux grands modèles de langage (LLM) développés par OpenAI et Google. Ces LLM comprennent la série GPT d'OpenAI et la série Gemini de Google. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI et de Google. |
Gagnez du temps et obtenez les informations dont vous avez besoin pour travailler plus rapidement en générant un résumé rapide d'une page ou d'un blog Confluence avec Atlassian Intelligence. En savoir plus sur l'utilisation d'Atlassian Intelligence dans Confluence. Nous pensons que le fait de résumer les pages et les blogs à l'aide d'Atlassian Intelligence est la meilleure solution dans les scénarios suivants :
|
Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour résumer les pages et les blogs à l'aide d'Atlassian Intelligence, ces modèles peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Bien que nous améliorions la prise en charge des macros, des tableaux et des extensions dans le cadre des résumés, nous estimons que le résumé de pages et de blogs via Atlassian Intelligence présente une utilité moindre dans les scénarios suivants :
Nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont Atlassian Intelligence utilise vos données pour l'automatisation Confluence. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, la fonction de résumé de pages et de blogs dans Confluence à l'aide d'Atlassian Intelligence applique les mesures suivantes :
|
Définir des termes avec Atlassian Intelligence
La définition de termes à l'aide d'Atlassian Intelligence dans Confluence et Jira est optimisée par de grands modèles de langage développés par OpenAI, Google et Anthropic, ainsi que par une combinaison de grands modèles de langage open source (dont les séries Llama, Phi et Mixtral) et d'autres modèles d'apprentissage machine. Ces grands modèles de langage incluent les séries GPT d'OpenAI, Gemini de Google et Claude d'Anthropic. Atlassian Intelligence utilise ces modèles pour analyser et générer des réponses en langage naturel dans Confluence et Jira. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI, de Google et d'Anthropic. Pour plus d'informations sur les modèles linguistiques open source, consultez les informations sur les séries Llama et Phi. |
L'un des plus grands défis liés à la consommation de contenu dans Confluence et Jira implique de trouver le contexte dont vous avez besoin pour comprendre ce que vous lisez. Les abréviations, les acronymes, les termes inconnus et les noms spécifiques à une équipe ou à un projet peuvent donner lieu à une longue recherche pour trouver les informations nécessaires. La définition des termes à l'aide d'Atlassian Intelligence permettra de définir les termes spécifiques à l'entreprise (tels que les acronymes et les noms de projets, de systèmes ou d'équipes) sur une page de Confluence ou dans la description d'un ticket dans Jira. Cela fournit aux utilisateurs les informations dont ils ont besoin, quand ils en ont besoin, tout en aidant les équipes à mieux travailler ensemble. Atlassian Intelligence peut vous faire gagner du temps en définissant ces éléments pour vous, directement depuis le contenu que vous lisez. Si une définition vous semble inexacte, vous pouvez la modifier ou en ajouter une nouvelle, puis définir la visibilité pour cette page ou ce ticket, l'ensemble de l'espace ou du projet, ou l'accès à l'ensemble de votre organisation. Nous pensons que la définition de termes à l'aide d'Atlassian Intelligence dans Confluence et Jira fonctionne mieux dans les scénarios où :
|
Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour définir des termes avec Atlassian Intelligence dans Confluence, ils peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que la définition de termes à l'aide d'Atlassian Intelligence dans Confluence était moins utile dans les scénarios où :
De plus, nous avons également découvert que, du fait que la définition de termes à l'aide d'Atlassian Intelligence repose sur la recherche dans Confluence, la fonctionnalité ne fonctionnera dans Jira que si vous disposez de l'autorisation de consulter une instance Confluence sur le même site que la vôtre. Il est également possible que la définition de termes à l'aide d'Atlassian Intelligence ne fonctionne pas comme prévu dans les instances Confluence ou Jira qui hébergent des documents écrits en plusieurs langues. |
Vous avez probablement des questions sur la façon dont la définition de termes avec Atlassian Intelligence utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, la définition de termes à l'aide d'Atlassian Intelligence applique les mesures suivantes :
|
IA générative dans l'éditeur
Les expériences d'édition avec Atlassian Intelligence reposent sur de grands modèles linguistiques (LLM) développés par OpenAI et Google. Ces LLM comprennent la série GPT d'OpenAI et la série Gemini de Google. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI et de Google. |
Atlassian Intelligence contribue à une communication efficace entre toutes les équipes d'une organisation afin d'améliorer l'efficacité, la prise de décisions et les processus. Nous pensons que l'utilisation d'Atlassian Intelligence dans des expériences d'édition fonctionne mieux dans les scénarios suivants :
|
Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour alimenter Atlassian Intelligence dans les expériences d'édition, ils peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que l'utilisation d'Atlassian Intelligence dans des expériences d'édition était moins utile dans les scénarios où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont Atlassian Intelligence utilise vos données dans les expériences d'édition. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, les réponses d'Atlassian Intelligence dans les expériences d'édition appliquent les mesures suivantes :
|
Le reformatage de tickets s'appuie sur les grands modèles de langage développés par OpenAI, notamment la série de modèles GPT d'OpenAI. Atlassian Intelligence utilise ce modèle pour analyser et générer du langage naturel dans Jira. Ces modèles génèrent des réponses en fonction de vos contributions et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI. |
Le reformatage de tickets permet de clarifier les descriptions de vos tickets Jira en les reformatant à l'aide d'un modèle développé par Atlassian. Ce modèle couvre les types d'informations que l'on s'attend généralement à trouver dans une description de ticket Jira, comme une user story, le contexte du travail et les critères d'acceptation. Nous pensons que le reformatage de tickets fonctionne de manière optimale lorsque les descriptions de vos tickets contiennent déjà des informations utiles (telles que des critères d'acceptation ou des liens vers des sources), mais que ces informations ne sont pas formatées selon une structure claire ou cohérente. |
Il est important de se rappeler qu'en raison de leur fonctionnement, les modèles qui alimentent le reformatage de tickets peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, votre description reformatée ne reflète peut-être pas exactement le contenu sur lequel elle est basée, ou elle peut inclure des détails qui semblent raisonnables, mais qui sont faux ou incomplets. Nous avons constaté que le reformatage de tickets est moins utile dans les scénarios suivants :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à toujours évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Vous pouvez également penser à vérifier que la description de vos tickets inclut toutes les informations pertinentes avant de commencer à utiliser le reformatage de tickets pour les reformater. |
Vous avez probablement des questions sur la façon dont le reformatage de tickets utilise vos données. Cette section complète les informations disponibles dans notre Trust Center. Ce que nous traitons :
En ce qui concerne vos données, le reformatage de tickets applique les mesures suivantes :
|
Résumer les informations de tickets dans Jira Service Management
Synthétisez les détails des problèmes à l'aide d'Atlassian Intelligence, optimisés grâce aux grands modèles de langage (LLM) développés par OpenAI et Google Ces LLM comprennent la série GPT d'OpenAI et la série Gemini de Google. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI et de Google. |
Au lieu de parcourir de longues descriptions et une multitude de commentaires concernant un ticket Jira Service Management, vous pouvez utiliser Atlassian Intelligence afin d'obtenir rapidement un résumé de ces informations. Cela permet aux agents de comprendre rapidement le contexte du ticket et l'avancement réalisé, ce qui leur permet d'agir rapidement et de fournir un support rapide. Nous pensons que le fait de résumer les informations des tickets à l'aide d'Atlassian Intelligence est la meilleure solution pour :
|
Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour résumer les informations des tickets à l'aide d'Atlassian Intelligence, ils peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert qu'il est moins utile de résumer les informations du ticket à l'aide d'Atlassian Intelligence dans les scénarios où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. |
Vous avez peut-être des questions sur la façon dont le résumé des informations de tickets avec Atlassian Intelligence utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, le résumé d'informations de tickets à l'aide d'Atlassian Intelligence applique les mesures suivantes :
|
IA générative dans l'éditeur
Le résumé des liens intelligents à l'aide d'Atlassian Intelligence (AI) est optimisé par de grands modèles de langage développés par OpenAI, Google et Anthropic, ainsi que par une combinaison de grands modèles de langage open source (dont les séries Llama, Phi et Mixtral) et d'autres modèles d'apprentissage machine. Ces grands modèles de langage incluent les séries GPT d'OpenAI, Gemini de Google et Claude d'Anthropic. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI, de Google et d'Anthropic. Pour plus d'informations sur les modèles linguistiques open source, consultez les informations sur les séries Llama et Phi. |
Après avoir survolé un lien intelligent dans Jira, Confluence ou Google Docs, Atlassian Intelligence peut vous aider à obtenir un résumé du contenu, ce qui vous éclaire sur la pertinence et la valeur du lien, et vous permet de décider de votre prochaine action. Vous n'avez donc ni besoin de quitter la page en cours ni de changer de contexte. Nous pensons que l'option de Résumé des liens intelligents avec l'IA fonctionne mieux dans les scénarios où :
|
Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour alimenter les Résumés des liens intelligents avec l'IA, ces modèles peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les résumés que vous recevez peuvent ne pas refléter exactement le contenu sur lequel ils sont basés ou inclure du contenu qui semble raisonnable, mais qui en réalité est faux ou incomplet. Nous avons découvert que l'option de Résumer les liens intelligents avec l'IA est moins utile dans les scénarios où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. |
Vous avez peut-être des questions sur la façon dont le résumé des informations de tickets avec Atlassian Intelligence utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, le Résumé des liens intelligents avec l'IA applique les mesures suivantes.
|
Réponses d'Atlassian Intelligence dans Jira Service Management
L'agent de service virtuel de Jira Service Management s'appuie sur de grands modèles de langage (LLM) développés par OpenAI et Google, ainsi que sur des LLM en open source (y compris la série Llama). L'agent de service virtuel utilise ces modèles de la façon suivante :
Fonctionnement des LLM : les LLM génèrent des réponses en fonction de vos contributions et sont de nature probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. Les grands modèles de langage (LLM) utilisés pour optimiser l'agent de service virtuel incluent les séries GPT d'OpenAI et Gemini de Google. En savoir plus sur les fonctionnalités des modèles d'OpenAI et de Google. Pour en savoir plus sur les modèles de langage en open source, consultez les informations sur la série Llama. |
L'agent de service virtuel aide les équipes à automatiser les interactions de support de tier 1, grâce à un moteur Atlassian Intelligence conversationnel qui analyse et comprend les intentions, le contexte et les autorisations afin de personnaliser les interactions. À l'aide d'Atlassian Intelligence, l'agent de service virtuel aide les équipes à faire évoluer leurs centres de services et à satisfaire leurs clients grâce à trois fonctionnalités clés :
L'agent de service virtuel est disponible dans de nombreux canaux, notamment Slack, Microsoft Teams, le portail Jira Service Management, et bien plus encore. En savoir plus sur les canaux disponibles pour l'agent de service virtuel Nous pensons que l'agent de service virtuel fonctionne mieux dans ces scénarios :
|
Il est important de se rappeler qu'en raison de leur fonctionnement, les modèles utilisés pour alimenter l'agent de service virtuel peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que l'agent de service virtuel est moins utile dans ces scénarios :
Nous vous encourageons à réfléchir aux situations dans lesquelles vous utiliseriez Atlassian Intelligence et à examiner les performances de l'agent de service virtuel avant de l'activer pour vos clients. En savoir plus sur l'amélioration des performances de votre agent de service virtuel Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont l'agent de service virtuel de Jira Service Management utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, l'agent de service virtuel applique les mesures suivantes :
|
Résumer les informations de tickets à l'aide d'Atlassian Intelligence
La fonctionnalité Résumés AI dans Jira repose sur des LLM développés par OpenAI. Ces modèles incluent les modèles OpenAI décrits ici. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les entraîner. Pour en savoir plus sur les capacités des modèles d'OpenAI ou sur cette approche, consultez les articles de recherche d'OpenAI. |
Au lieu de parcourir de longues descriptions et une multitude de commentaires concernant un ticket Jira, vous pouvez utiliser Atlassian Intelligence pour bénéficier rapidement d'un résumé de ces informations. Cela permet aux agents de comprendre rapidement le contexte du ticket et l'avancement réalisé, et ainsi d'agir rapidement et de fournir un support rapide. Nous pensons que le fait de résumer les informations des tickets à l'aide d'Atlassian Intelligence est la solution idéale pour les tickets comportant un grand nombre de commentaires et/ou de longs commentaires et descriptions. |
Il est important de se rappeler qu'en raison de leur fonctionnement, les modèles qui alimentent les résumés AI dans Jira peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert qu'il est moins utile de résumer les informations du ticket à l'aide d'Atlassian Intelligence dans les scénarios suivants :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. |
Vous avez peut-être des questions sur la façon dont la fonctionnalité Résumé des informations de ticket à l'aide d'Atlassian Intelligence utilise vos données. Cette section complète les informations disponibles dans notre Trust Center. Ce que nous traitons :
En ce qui concerne vos données, le résumé d'informations de tickets à l'aide d'Atlassian Intelligence applique les mesures suivantes :
|
Répartition du travail par l'IA
La fonctionnalité Résumé du travail par l'IA repose sur des LLM développés par OpenAI. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. Pour en savoir plus sur les capacités des modèles d'OpenAI ou sur cette approche, consultez les articles de recherche d'OpenAI. |
La fonctionnalité Répartition du travail par l'IA suggère des tickets enfant en fonction d'un ticket Jira que vous avez créé, ce qui permet de décomposer facilement les tâches volumineuses en tâches plus petites. Votre ticket est utilisé comme contexte pour générer des suggestions pour les résumés et descriptions de tickets enfant. Nous pensons que la fonctionnalité Répartition du travail par l'IA fonctionne mieux dans les scénarios suivants :
|
Il est important de se rappeler qu'en raison de leur fonctionnement, les modèles utilisés pour alimenter la fonctionnalité Répartition du travail par l'IA peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que la fonctionnalité Répartition du travail par l'IA est moins utile dans les scénarios suivants :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont la fonctionnalité Répartition du travail par l'IA utilise vos données. Cette section complète les informations disponibles dans notre Trust Center. Ce que nous traitons :
En ce qui concerne vos données, la fonctionnalité Répartition du travail par l'IA applique les mesures suivantes.
|
Utilisez l'IA pour passer à l'action
Sélectionnez une fonctionnalité Atlassian Intelligence ci-dessous pour avoir un aperçu transparent des cas d'usage et de l'utilisation des données.
La création d'incidents basée sur l'IA à l'aide d'Atlassian Intelligence est optimisée par de grands modèles de langage développés par OpenAI, Google et Anthropic, ainsi que par une combinaison de grands modèles de langage open source (dont les séries Llama, Phi et Mixtral) et d'autres modèles d'apprentissage machine. Ces grands modèles de langage incluent les séries GPT d'OpenAI, Gemini de Google et Claude d'Anthropic. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces modèles génèrent des réponses en fonction de ce que vous saisissez et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les entraîner. En savoir plus sur les fonctionnalités des modèles d'OpenAI, de Google et d'Anthropic. Pour plus d'informations sur les modèles linguistiques open source, consultez les informations sur les séries Llama et Phi. |
Lorsque vous requalifiez une ou plusieurs alertes, ou un ou plusieurs groupes d'alertes en incident dans Jira Service Management, la fonctionnalité de création d'incident avec l'IA utilise Atlassian Intelligence pour préremplir rapidement toutes les informations contextuelles afin que vous puissiez les consulter dans le cadre du processus de création de l'incident. Cela permet aux utilisateurs de comprendre rapidement le contexte de l'incident créé à partir de ces alertes ou de ces groupes d'alertes, mais aussi de vérifier et de confirmer les informations préremplies, y compris le titre, la description et la priorité de l'alerte lorsqu'elle est requalifiée en incident. Nous pensons que la fonctionnalité de création d'incident avec l'IA fonctionne mieux dans les scénarios où :
|
Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour optimiser la fonctionnalité de création d'incident avec l'IA, ces modèles peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que la fonctionnalité de création d'incident avec l'IA est moins utile dans les scénarios où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Pour obtenir les résultats les plus utiles, nous vous conseillons d'être aussi précis que possible dans ce que vous demandez à Atlassian Intelligence. Il vous sera également utile d'être aussi précis que possible dans les demandes adressées à Atlassian Intelligence. |
Vous avez probablement des questions sur la façon dont la fonctionnalité de création d'incident avec l'IA utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, la fonctionnalité de création d'incident avec l'IA applique les mesures suivantes.
|
Créer une revue post-incident
La fonctionnalité de création de revue post-incident (PIR) par Atlassian Intelligence s'appuie sur de grands modèles de langage (LLM) développés par OpenAI. Ces LLM incluent la série de modèles GPT d'OpenAI. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces modèles génèrent des réponses en fonction de ce que les utilisateurs saisissent et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les entraîner. Pour en savoir plus sur les capacités des modèles d'OpenAI ou sur cette approche, consultez les articles de recherche d'OpenAI. |
Les PIR jouent un rôle central dans le processus de gestion des incidents, car elles aident les intervenants sur l'incident et les responsables à tirer les leçons des incidents actuels et à transmettre des informations afin d'éviter que des incidents similaires ne se reproduisent à l'avenir. Atlassian Intelligence (AI) contribue à accélérer la tâche souvent fastidieuse de compilation de PIR en vous proposant une description de la PIR basée sur les informations contextuelles pertinentes de votre instance Jira Service Management et des outils de chat tels que Slack. Il ne vous reste ensuite qu'à la vérifier. Nous pensons que la fonctionnalité Créer une revue post-incident avec AI fonctionne mieux dans les scénarios où :
|
Il est important de se rappeler qu'en raison de leur fonctionnement, les modèles utilisés pour alimenter la création de PIR peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que la création de PIR est moins utile dans les scénarios où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont la fonctionnalité Créer une revue post-incident avec AI utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, la fonctionnalité de création de PIR avec AI applique les mesures suivantes :
|
Générez des descriptions de pull requests avec Atlassian Intelligence
La génération de descriptions de pull requests à l'aide d'Atlassian Intelligence est optimisée par de grands modèles de langage développés par OpenAI, Google et Anthropic, ainsi que par une combinaison de grands modèles de langage open source (dont les séries Llama, Phi et Mixtral) et d'autres modèles d'apprentissage machine. Ces grands modèles de langage incluent les séries GPT d'OpenAI, Gemini de Google et Claude d'Anthropic. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel et du code dans nos produits. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI, de Google et d'Anthropic. Pour plus d'informations sur les modèles linguistiques open source, consultez les informations sur les séries Llama et Phi. |
Atlassian Intelligence peut vous aider à générer, transformer et résumer du contenu pendant que vous rédigez des descriptions de pull requests ou des commentaires dans le cadre de l'expérience de revue de code Bitbucket Cloud. Ceci inclut :
Nous pensons que la génération de descriptions de pull requests Bitbucket Cloud avec Atlassian Intelligence fonctionne mieux dans les scénarios suivants :
|
Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour alimenter ce travail sur les fonctionnalité, ils peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que la génération de descriptions de pull requests Bitbucket Cloud à l'aide d'Atlassian Intelligence était moins utile dans les scénarios suivants :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont la définition de termes avec Atlassian Intelligence dans Confluence utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, la génération de descriptions de pull requests à l'aide d'Atlassian Intelligence applique les mesures suivantes :
|
Générer des requêtes SQL dans Atlassian Analytics
La génération de requêtes SQL à l'aide d'Atlassian Intelligence dans Atlassian Analytics est optimisée par de grands modèles de langage développés par OpenAI, Google et Anthropic, ainsi que par une combinaison de grands modèles de langage open source (dont les séries Llama, Phi et Mixtral) et d'autres modèles d'apprentissage machine. Ces grands modèles de langage incluent les séries GPT d'OpenAI, Gemini de Google et Claude d'Anthropic. Atlassian Intelligence utilise ces modèles pour analyser et comprendre le langage naturel, puis le traduit en langage de requête structuré (SQL) dans Atlassian Analytics. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI, de Google et d'Anthropic. Pour plus d'informations sur les modèles linguistiques open source, consultez les informations sur les séries Llama et Phi. |
Posez une question à Atlassian Intelligence en langage naturel et faites-la traduire en requête SQL, plutôt que d'écrire entièrement vos propres requêtes SQL. Lorsque vous lui avez posé une question, Atlassian Intelligence utilise le schéma Atlassian Data Lake de la source de données sélectionnée pour générer une requête SQL qui peut être utilisée pour créer des graphiques dans vos tableaux de bord Atlassian Analytics et qui peut également vous aider à en savoir plus sur le schéma dans le Data Lake (lac de données). Nous pensons que la génération de requêtes SQL à l'aide d'Atlassian Intelligence fonctionne mieux dans les scénarios où :
Je ne sais pas quelles questions poser ?Voici quelques suggestions :
|
Il est important de se rappeler qu'en raison du fonctionnement propre aux modèles utilisés pour générer des requêtes SQL à l'aide d'Atlassian Intelligence, ces modèles peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que la génération de requêtes SQL à l'aide d'Atlassian Intelligence était moins utile dans les scénarios où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont la génération de requêtes SQL avec Atlassian Intelligence utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, la génération de requêtes SQL à l'aide d'Atlassian Intelligence applique les mesures suivantes :
|
Rechercher des réponses dans Confluence
La recherche de réponses dans Confluence à l'aide d'Atlassian Intelligence est optimisée par de grands modèles de langage développés par OpenAI, Google et Anthropic, ainsi que par une combinaison de grands modèles de langage open source (dont les séries Llama, Phi et Mixtral) et d'autres modèles d'apprentissage machine. Ces grands modèles de langage incluent les séries GPT d'OpenAI, Gemini de Google et Claude d'Anthropic. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI, de Google et d'Anthropic. Pour plus d'informations sur les modèles linguistiques open source, consultez les informations sur les séries Llama et Phi. |
Les bases de connaissances se développent trop vite pour que les utilisateurs puissent suivre le rythme. La recherche de réponses dans Confluence à l'aide d'Atlassian Intelligence permet d'accéder plus rapidement aux informations clés dont les clients ont besoin afin de faire avancer leur travail. Cette fonctionnalité vous permet de trouver facilement les informations dont vous avez besoin. Elle comprend les types de questions que vous poseriez à un collègue et y répond instantanément. Plus d'informations sur l'utilisation d'Atlassian Intelligence pour rechercher des réponses dans Confluence. Nous estimons que la recherche de réponses dans Confluence à l'aide d'Atlassian Intelligence fonctionne au mieux lorsque votre site Confluence propose du contenu détaillé, complet et actualisé. Cette fonctionnalité ne génère pas de nouveau contenu, mais permet de parcourir les pages et les blogs de Confluence, dans le respect des restrictions, afin de trouver la réponse à votre question. Atlassian Intelligence génère des réponses basées uniquement sur le contenu de votre Confluence, et sur ce à quoi vous avez spécifiquement accès. Je ne sais pas quelles questions poser ?Voici quelques suggestions :
|
Vous avez probablement des questions sur la façon dont la recherche de réponses dans Confluence avec Atlassian Intelligence utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, la recherche de réponses dans Confluence à l'aide d'Atlassian Intelligence applique les mesures suivantes :
|
Rechercher des tickets dans Jira
La recherche de tickets à l'aide d'Atlassian Intelligence dans Jira est optimisée par de grands modèles de langage développés par OpenAI, Google et Anthropic, ainsi que par une combinaison de grands modèles de langage open source (dont les séries Llama, Phi et Mixtral) et d'autres modèles d'apprentissage machine. Ces grands modèles de langage incluent les séries GPT d'OpenAI, Gemini de Google et Claude d'Anthropic. Atlassian Intelligence utilise ces modèles pour analyser et comprendre le langage naturel, puis le traduit en code Jira Query Language (JQL) à l'intérieur de nos produits. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI, de Google et d'Anthropic. Pour plus d'informations sur les modèles linguistiques open source, consultez les informations sur les séries Llama et Phi. |
Vous pouvez désormais demander à Atlassian Intelligence ce que vous désirez en langage courant au lieu d'envoyer des requêtes complexes. En recherchant des tickets avec Atlassian Intelligence, votre message sera traduit en une requête JQL qui vous permettra de rechercher rapidement des problèmes spécifiques. Nous pensons que la recherche de tickets à l'aide d'Atlassian Intelligence fonctionne mieux dans les scénarios où :
|
Il est important de rappeler qu'en raison du fonctionnement propre aux modèles utilisés pour rechercher des tickets à l'aide d'Atlassian Intelligence, ces modèles peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que la recherche de tickets à l'aide d'Atlassian Intelligence était moins utile dans les scénarios où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Il vous sera également utile d'être aussi précis que possible dans les demandes adressées à Atlassian Intelligence. Veillez à inclure les champs et les valeurs exacts que vous recherchez. |
Vous avez probablement des questions sur la façon dont la recherche de tickets avec Atlassian Intelligence utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, la recherche de tickets à l'aide d'Atlassian Intelligence applique les mesures suivantes :
|
Répartition du travail par l'IA
La fonctionnalité Résumé du travail par l'IA repose sur des LLM développés par OpenAI. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. Pour en savoir plus sur les capacités des modèles d'OpenAI ou sur cette approche, consultez les articles de recherche d'OpenAI. |
La fonctionnalité Répartition du travail par l'IA suggère des tickets enfant en fonction d'un ticket Jira que vous avez créé, ce qui permet de décomposer facilement les tâches volumineuses en tâches plus petites. Votre ticket est utilisé comme contexte pour générer des suggestions pour les résumés et descriptions de tickets enfant. Nous pensons que la fonctionnalité Répartition du travail par l'IA fonctionne mieux dans les scénarios suivants :
|
Il est important de se rappeler qu'en raison de leur fonctionnement, les modèles utilisés pour alimenter la fonctionnalité Répartition du travail par l'IA peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que la fonctionnalité Répartition du travail par l'IA est moins utile dans les scénarios suivants :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont la fonctionnalité Répartition du travail par l'IA utilise vos données. Cette section complète les informations disponibles dans notre Trust Center. Ce que nous traitons :
En ce qui concerne vos données, la fonctionnalité Répartition du travail par l'IA applique les mesures suivantes.
|
La fonctionnalité Thèmes suggérés dans la base de connaissances est optimisée par de grands modèles de langage (LLM) développés par OpenAI et Anthropic, ainsi que par une combinaison de modèles de langage open source basés sur des transformateurs et d'autres modèles d'apprentissage machine. Ces LLM incluent la série de modèles GPT d'OpenAI et la série de modèles Claude d'Anthropic. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Les modèles d'encodeurs open source convertissent vos entrées textuelles en formulaires numériques (intégrations), qui sont utilisés pour identifier et définir des thèmes à partir de vos contributions. Ces grands modèles de langage génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. Découvrez-en plus sur les fonctionnalités des modèles d'OpenAI et d'Anthropic. Pour plus d'informations sur les modèles de langage open source, consultez les informations sur Multi-QA-miniLM et E5-Multilingual. |
Cette fonctionnalité aide les administrateurs et les agents à comprendre les lacunes de leur base de connaissances en analysant les demandes de service reçues dans le cadre d'un projet. Elle met clairement en avant les thèmes sur lesquels les personnes en quête d'aide créent des demandes (sur la base des données des 30 derniers jours), mais pour lesquels aucune connaissance n'est disponible. En suggérant des thèmes, nous souhaitons permettre aux administrateurs de projet et aux agents de déterminer le nombre de demandes pouvant être redirigées (ou du moins résolues) grâce aux connaissances disponibles. Nous pensons que l'augmentation du nombre d'articles de connaissances influencera les performances des autres fonctionnalités de Jira Service Management, telles que les réponses AI de l'agent de service virtuel. Lorsque des administrateurs ou des agents créent des articles sur la fonctionnalité Thèmes suggérés, cela peut également contribuer à améliorer le taux de résolution des demandes résolues à l'aide des réponses AI. Nous pensons que les thèmes suggérés fonctionnent mieux dans les scénarios suivants :
|
Il est important de se rappeler qu'en raison de leur mode de fonctionnement, les modèles utilisés pour optimiser la fonctionnalité Thèmes suggérés dans la base de connaissances peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons constaté que la fonctionnalité Thèmes suggérés dans la base de connaissances est moins utile dans les scénarios suivants :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont les thèmes suggérés utilisent vos données. Cette section complète les informations disponibles dans notre Trust Center. Ce que nous traitons :
En ce qui concerne vos données, la fonctionnalité Thèmes suggérés dans la base de connaissances applique les mesures suivantes. Les thèmes suggérés pour vous dans la base de connaissances :
|
Rechercher des tickets dans Jira
La recherche de tickets à l'aide d'Atlassian Intelligence dans Jira est optimisée par de grands modèles de langage développés par OpenAI, Google et Anthropic, ainsi que par une combinaison de grands modèles de langage open source (dont les séries Llama, Phi et Mixtral) et d'autres modèles d'apprentissage machine. Ces grands modèles de langage incluent les séries GPT d'OpenAI, Gemini de Google et Claude d'Anthropic. Atlassian Intelligence utilise ces modèles pour analyser et comprendre le langage naturel, puis le traduit en code Jira Query Language (JQL) à l'intérieur de nos produits. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI, de Google et d'Anthropic. Pour plus d'informations sur les modèles linguistiques open source, consultez les informations sur les séries Llama et Phi. |
Vous pouvez désormais demander à Atlassian Intelligence ce que vous désirez en langage courant au lieu d'envoyer des requêtes complexes. En recherchant des tickets avec Atlassian Intelligence, votre message sera traduit en une requête JQL qui vous permettra de rechercher rapidement des problèmes spécifiques. Nous pensons que la recherche de tickets à l'aide d'Atlassian Intelligence fonctionne mieux dans les scénarios où :
|
Il est important de rappeler qu'en raison du fonctionnement propre aux modèles utilisés pour rechercher des tickets à l'aide d'Atlassian Intelligence, ces modèles peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que la recherche de tickets à l'aide d'Atlassian Intelligence était moins utile dans les scénarios où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Il vous sera également utile d'être aussi précis que possible dans les demandes adressées à Atlassian Intelligence. Veillez à inclure les champs et les valeurs exacts que vous recherchez. |
Vous avez probablement des questions sur la façon dont la recherche de tickets avec Atlassian Intelligence utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, la recherche de tickets à l'aide d'Atlassian Intelligence applique les mesures suivantes :
|
En savoir plus sur Atlassian Intelligence
Obtenez des informations instantanées à partir de vos données
Sélectionnez une fonctionnalité Atlassian Intelligence ci-dessous pour avoir un aperçu transparent des cas d'usage et de l'utilisation des données.
Chart Insights
Chart Insights est optimisé par de grands modèles de langage développés par OpenAI, Google et Anthropic, ainsi que par une combinaison de grands modèles de langage open source (dont les séries Llama, Phi et Mixtral) et d'autres modèles d'apprentissage machine. Ces grands modèles de langage incluent les séries GPT d'OpenAI, Gemini de Google et Claude d'Anthropic. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI, de Google et d'Anthropic. Pour plus d'informations sur les modèles linguistiques open source, consultez les informations sur les séries Llama et Phi. |
Chart Insights utilise Atlassian Intelligence pour vous aider à mieux comprendre les données des graphiques dans Atlassian Analytics. Pour ce faire, il utilise le titre du tableau de bord, le titre du graphique et les données du graphique (y compris les en-têtes de colonne et les valeurs des lignes) pour générer un résumé en langage naturel de ce graphique et de ses données. Il visera également à identifier les tendances ou les anomalies afin de vous donner un aperçu de ce graphique. Nous pensons que Chart Insights fonctionne mieux dans les scénarios où :
Les graphiques à barres, les diagrammes linéaires et les graphiques mêlant ces deux modalités fonctionnent mieux avec cette fonctionnalité, car ils contiennent généralement des tendances, des dates et de nombreuses lignes de données. |
Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour alimenter le travail de Chart Insights, ces modèles peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que Chart Insights est moins utile dans les scénarios où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont Chart Insights utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, Chart Insights applique les mesures suivantes.
|
Suggérer des types de demandes dans Jira Service Management
Les types de demandes suggérés à l'aide d'Atlassian Intelligence sont optimisés par de grands modèles de langage développés par OpenAI. Ces LLM comprennent la série de modèles GPT d'OpenAI. Atlassian Intelligence utilise ces modèles afin d'analyser les saisies en langage naturel et générer pour vous des recommandations concernant les noms et les descriptions des types de demande dans Jira Service Management. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI. |
Passez moins de temps à réfléchir aux types de demande qu'il vous faut créer dans votre projet en bénéficiant de suggestions proposées par Atlassian Intelligence. Décrivez simplement vos activités ainsi que ce que gère votre équipe habituellement, afin de voir les types de demande que vous pourriez créer. Sélectionnez l'une des suggestions générées par Atlassian Intelligence afin de créer un type de demande. En savoir plus sur l'utilisation d'Atlassian Intelligence pour suggérer des types de demande. Nous pensons que l'utilisation d'Atlassian Intelligence pour suggérer des types de demande fonctionne au mieux dans les scénarios où :
|
Il est important de rappeler qu'en raison du fonctionnement propre aux modèles utilisés pour suggérer des types de demande à l'aide d'Atlassian Intelligence, ces modèles peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que l'utilisation d'Atlassian Intelligence pour suggérer des types de demande est moins utile dans les scénarios où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont Atlassian Intelligence utilise vos données lors de la suggestion de types de demande. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, la fonction de suggestion de types de demande d'Atlassian Intelligence applique les mesures qui suivent.
|
Suggérer des types de demandes dans Jira Service Management
L'outil de synthèse des domaines prioritaires est optimisé par les grands modèles de langage développés par OpenAI. Ils comprennent les modèles d'OpenAI décrits ici. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. |
L'outil de synthèse des domaines prioritaires utilise Atlassian Intelligence pour fournir un résumé rapide et exploitable de votre domaine prioritaire, y compris le travail en cours, l'état de santé des objectifs associés, des suggestions sur les domaines à surveiller et des recommandations pour résoudre les éventuels problèmes. L'outil de synthèse des domaines prioritaires fonctionne de manière optimale lorsque :
|
Il est important de garder à l'esprit qu'en raison du fonctionnement des modèles utilisés pour optimiser l'outil, ces derniers peuvent parfois se comporter de manière inadaptée, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons constaté que l'outil de synthèse des domaines prioritaires est moins utile dans les situations suivantes :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. |
Vous avez probablement des questions sur la façon dont l'outil de synthèse des domaines prioritaires utilise vos données. Cette section complète les informations figurant dans notre Trust Center. Ce que nous traitons :
En ce qui concerne vos données, l'outil de synthèse des domaines prioritaires applique les mesures suivantes.
|
En savoir plus sur Atlassian Intelligence
Références
Recevez des mises à jour en temps réel sur l'état des produits Atlassian sur notre page d'état dédiée.
En savoir plus sur Atlassian Intelligence
Découvrez comment Atlassian gère les données clients.