Rovo zaprojektowano pod kątem przejrzystości
Nasze bezkompromisowe zaangażowanie w otwartą komunikację, odpowiedzialność i pomaganie zespołom w odpowiedzialnym korzystaniu z AI.
Wyszukiwanie, czaty i agenty Rovo
Wybierz funkcję Rovo poniżej, aby uzyskać przejrzyste informacje na temat przypadków użycia i wykorzystania danych.
| Agenty Rovo są obsługiwane przez duże modele językowe opracowane przez OpenAI i Google, a także kombinację dużych modeli językowych typu open source (w tym serii Llama) i innych modeli uczenia maszynowego. Modele te obejmują serię modeli GPT firmy OpenAI i serię modeli Gemini firmy Google. Agenty Rovo wykorzystują te modele do dostarczania funkcji do analizy i generowania odpowiedzi na monity w języku naturalnym oraz dostarczania odpowiednich odpowiedzi z produktów Atlassian oraz powiązanych produktów innych firm. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI i modeli Google. Aby dowiedzieć się więcej o modelach językowych typu open source, zapoznaj się z informacjami na temat serii Llama. |
| Dzięki Rovo zapewniamy wiele agentów gotowych do użycia w różnych zadaniach, takich jak pomoc w podejmowaniu decyzji, publikowanie dokumentacji informacyjnej oraz porządkowanie lub organizowanie zgłoszeń w Jirze. Agenty to wyspecjalizowani koledzy z zespołu sztucznej inteligencji, którzy mogą pomóc zespołom ludzkim w szybkim i skutecznym posuwaniu się naprzód. Możesz:
Uważamy, że agenty ROVO działają najlepiej w następujących scenariuszach:
|
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi agentów ROVO mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że agenty Rovo są mniej użyteczne w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Rovo, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki agenty Robo wykorzystują Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Podczas korzystania z agentów Rovo wobec Twoich danych są stosowane poniższe środki w stosunku do Twoich danych.
Powyższe szczegóły dotyczą agentów dostarczanych przez Atlassian. Więcej informacji na temat agentów dostarczanych przez Atlassian zawiera strona Wytyczne dotyczące danych, prywatności i użytkowania Rovo | Rovo | Wsparcie Atlassian. Aby uzyskać informacje o agentach dostarczanych przez inne firmy, zapoznaj się z Warunkami dostawcy udostępnianymi przez te firmy dla ich aplikacji. Przeczytaj więcej o Rovo |
| Czat Rovo jest obsługiwany przez duże modele językowe opracowane przez OpenAI, Anthropic i Google, a także kombinację dużych modeli językowych typu open source (w tym serii Llama) i innych modeli uczenia maszynowego. Modele te to seria GPT firmy OpenAI, seria Claude firmy Anthropic oraz seria Gemini firmy Google. Czat Rovo wykorzystuje te modele do analizowania i generowania odpowiedzi na monity w języku naturalnym oraz dostarczania odpowiednich odpowiedzi z produktów Atlassian oraz powiązanych produktów innych firm. Odpowiedzi są generowane przez duże modele językowe na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że odpowiedzi pochodzące od dużych modeli językowych są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których zostały one wytrenowane. Dowiedz się więcej o możliwościach modeli OpenAI, Anthropic i Google. Aby dowiedzieć się więcej o modelach językowych typu open source, zapoznaj się z informacjami na temat serii Llama. |
| Czat Rovo umożliwia dostęp do wiedzy o Twojej organizacji za pośrednictwem interfejsu konwersacyjnego. Oznacza to, że możesz poprosić Rovo o napisanie, przeczytanie, ocenę lub utworzenie treści w ramach przepływu pracy. Czat rozumie kontekst Twojej pracy: korzysta z informacji z produktów Atlassian, podłączonych produktów zewnętrznych oraz przesłanych plików, aby odpowiadać na pytania, dostarczać pomysły i analizy. Za pomocą funkcji wyszukiwania w sieci czat Rovo może też uzyskać dostęp do danych z internetu, aby podać trafne i zgodne z kontekstem odpowiedzi. Uważamy, że czat ROVO działa najlepiej w scenariuszach, w których:
Standardowy czat Rovo generuje szybkie odpowiedzi. Z kolei funkcja głębokiego badania przydaje się najlepiej w sytuacjach wymagających raportów na konkretne tematy popartych dogłębnymi badaniami. Funkcja ta przeprowadza głębokie, wieloetapowe badania, podzieliwszy uprzednio prompt na mniejsze, dyskretne kroki i przeszukując połączone źródła danych i udoskonalając wyniki w każdym kroku, a wreszcie kompilując informacje do postaci raportu zawierającego cytaty. Dostęp do czatu Rovo użytkownicy mogą także uzyskać za pośrednictwem rozszerzenia do przeglądarki Chrome. Więcej informacji na temat dostępu do czatu Rovo można znaleźć tutaj i tutaj. |
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi czatu ROVO mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że czat ROVO jest mniej użyteczny w scenariuszach, w których:
Dlatego zachęcamy do zastanowienia się nad sytuacjami, w których można skorzystać z czatu Rovo, i sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki czat Rovo wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy: Twoje prompty (dane wejściowe) i odpowiedzi (dane wyjściowe);
Podczas korzystania z czatu Rovo wobec Twoich danych stosowane są wymienione poniżej środki.
OpenAI, Google i AWS Bedrock są podrzędnymi podmiotami przetwarzającymi znajdującymi się na naszej liście podrzędnych podmiotów przetwarzających. Nie wykorzystują Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem i obsługą żądania. Ta funkcja działa zgodnie z uprawnieniami w instancji. Na przykład jeśli nie masz dostępu do określonej strony Confluence, otrzymana odpowiedź nie będzie zawierać sugerowanej treści z tej strony. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji. Pliki przesyłane do czatu Rovo nie są przechowywane poza historią czatu. W przypadku dostępu do czatu Rovo z rozszerzenia do przeglądarki Chrome czat będzie tylko odczytywał treść na przeglądanej stronie internetowej, aby uzupełnić treść już znajdującą się w produktach Atlassian. Nie będą przechowywane żadne dodatkowe dane ze strony internetowej. Przeczytaj więcej o Rovo Dowiedz się więcej o korzystaniu z Rovo |
| Wyszukiwanie Rovo korzysta z SI w celu ulepszania możliwości wyszukiwania w narzędziach firmy Atlassian i innych firm. Wyszukiwanie Rovo jest obsługiwane przez duże modele językowe opracowane przez OpenAI i Google, a także kombinację dużych modeli językowych typu open source (w tym serii Llama) i innych modeli uczenia maszynowego. Modele te obejmują serię modeli GPT firmy OpenAI i serię modeli Gemini firmy Google. Wyszukiwanie Rovo wykorzystuje te modele w celu zapewniania funkcji, takich jak wyszukiwanie semantyczne, ranking relewancji i przetwarzanie języka naturalnego. Obejmuje to analizę zapytań wyszukiwania w języku naturalnym i generowanie na nie odpowiedzi oraz dostarczanie właściwych odpowiedzi na podstawie danych z produktów Atlassian i połączonych produktów innych firm. Odpowiedzi są generowane przez duże modele językowe na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że odpowiedzi pochodzące od dużych modeli językowych są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których zostały one wytrenowane. Dowiedz się więcej o możliwościach modeli OpenAI i modeli Google. Aby dowiedzieć się więcej o modelach językowych typu open source, zapoznaj się z informacjami na temat serii Llama. |
| Wyszukiwanie Rovo umożliwia użytkownikom wyszukiwanie w wielu narzędziach i na wielu platformach, w tym w produktach Atlassian i połączonych produktach innych firm, zapewniając kontekstowe i trafne wyniki w celu usprawnienia współpracy zespołowej i zwiększenia produktywności. Uważamy, że wyszukiwanie Rovo działa najlepiej w scenariuszach, w których:
|
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi wyszukiwania Rovo, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że wyszukiwanie Rovo jest mniej użyteczne w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Rovo, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki wyszukiwanie Rovo wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Podczas korzystania z wyszukiwania Rovo wobec Twoich danych stosowane są wymienione poniżej środki.
Przeczytaj więcej o Rovo Rovo: odblokuj wiedzę organizacyjną dzięki generatywnej sztucznej inteligencji | Atlassian |
Przyspiesz pracę dzięki SI
Wybierz funkcję Rovo poniżej, aby uzyskać przejrzyste informacje na temat przypadków użycia i wykorzystania danych.
- AI ChatOps do zarządzania incydentami
- Wersje robocze AI
- Podsumowania AI na kartach centrum firmy
- Zasoby powiązane z AI
- Sugestie SI
- Rovo Dev
- Automation
- Grupowanie alertów
- Krótkie podsumowanie Confluence
- Definiowanie terminów
- Generatywna SI w edytorze
- Narzędzie do zmiany formatu zgłoszeń
- Podsumowywanie szczegółów zgłoszenia
- Podsumowywanie inteligentnych łączy
- Podsumowywanie szczegółów zgłoszenia za pomocą Rovo
- Wirtualny agent obsługi
- Podział pracy dzięki AI
- AI ChatOps do zarządzania incydentami
- Wersje robocze AI
- Podsumowania AI na kartach centrum firmy
- Zasoby powiązane z AI
- Sugestie SI
- Rovo Dev
- Automation
- Grupowanie alertów
- Krótkie podsumowanie Confluence
- Definiowanie terminów
- Generatywna SI w edytorze
- Narzędzie do zmiany formatu zgłoszeń
- Podsumowywanie szczegółów zgłoszenia
- Podsumowywanie inteligentnych łączy
- Podsumowywanie szczegółów zgłoszenia za pomocą Rovo
- Wirtualny agent obsługi
- Podział pracy dzięki AI
Automatyzacja przy użyciu Atlassian Intelligence
| Funkcje AI ChatOps do zarządzania incydentami są obsługiwane przez duże modele językowe opracowane przez OpenAI, a także kombinację dużych modeli językowych typu open-source (w tym serii Llama) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI. Rovo wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model był trenowany. Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI. Aby dowiedzieć się więcej o modelach językowych typu open source, zapoznaj się z informacjami na temat serii Llama. |
| AI ChatOps do zarządzania incydentami pomaga użytkownikom przyspieszyć proces rozstrzygania incydentów. Przedstawia podsumowanie odpowiedniego incydentu i wszystkich dotychczasowych rozmów na jego temat nowym użytkownikom po dodaniu ich do kanału Slack, który jest powiązany ze zgłoszeniem incydentu w Jira Service Management. Ponadto AI ChatOps do zarządzania incydentami może rejestrować rozmowy prowadzone na Slacku w narzędziu Jira Service Management w formie osi czasu do wykorzystania w przyszłości. Naszym zdaniem AI ChatOps do zarządzania incydentami najlepiej sprawdza się w scenariuszach, w których:
|
| Należy pamiętać, że ze względu na sposób działania modeli używanych do obsługi AI ChatOps dla zarządzania incydentami mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Otrzymane odpowiedzi mogą na przykład nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Z naszych doświadczeń wynika, że model AI ChatOps do zarządzania incydentami jest mniej przydatny w scenariuszach, w których:
Dlatego zachęcamy do rozważenia sytuacji, w których można wykorzystać AI ChatOps do zarządzania incydentami i sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym osobom. Warto też pomyśleć o przejrzeniu uprawnień, aby upewnić się, że użytkownicy mają odpowiedni poziom dostępu do odpowiednich zgłoszeń incydentów i kanałów Slack. |
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki AI ChatOps do zarządzania incydentami wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań. Przetwarzamy:
W stosunku do Twoich danych AI ChatOps do zarządzania incydentami stosuje następujące środki:
|
| Wersje robocze AI bazują na dużych modelach językowych opracowanych przez OpenAI i Anthropic, a także na połączeniu modeli językowych opartych na transformatorach open source i innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT OpenAI i serię modeli Claude firmy Anthropic. Rovo wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele kodujące open-source konwertują tekstowe dane wejściowe w formy numeryczne (osadzenia), które są używane do identyfikowania i przygotowania tematów na podstawie danych wejściowych. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model był trenowany. Dowiedz się więcej o możliwościach modeli OpenAI i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zapoznaj się z informacjami na temat modeli osadzonych. |
| Wersje robocze AI sugerują wstępnie wygenerowane wersje robocze artykułów z bazy wiedzy do uwzględnienia przez administratorów i agentów. Funkcja ta generuje wersje robocze dla najczęściej występujących zgłoszeń w projekcie Jira Service Management, wykorzystując szczegóły i komentarze w ramach zgłoszeń w tym projekcie. Umożliwia to zespołom obsługi szybsze i łatwiejsze zwiększanie zasięgu artykułów z bazy wiedzy, co z kolei korzystnie wpływa na wydajność innych funkcji Jira Service Management. Przykładowo artykuły z bazy wiedzy utworzone przy użyciu wersji roboczych AI mogą być następnie wykorzystywane przez funkcję odpowiedzi sztucznej inteligencji od wirtualnego agenta obsługi w celu łatwiejszego i szybszego rozstrzygania wniosków od osób poszukujących pomocy. Przeczytaj więcej o odpowiedziach sztucznej inteligencji w wirtualnym agencie obsługi. Uważamy, że wersje robocze AI działają najlepiej w scenariuszach, w których:
|
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi wersji roboczych AI mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że wersje robocze AI są mniej użyteczne w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Rovo, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki wersje robocze AI wykorzystują Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Funkcja wersji roboczych AI stosuje poniższe środki w odniesieniu do Twoich danych.
|
| Podsumowania AI na kartach centrum firmy opierają się na dużych modelach językowych opracowanych przez OpenAI. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI. Rovo wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model był trenowany. Przeczytaj więcej o możliwościach modeli OpenAI. |
| Podsumowania SI na kartach centrum firmy pomagają szybko wypełnić i opublikować centrum firmy, sugerując generowane przez sztuczną inteligencję opisy kart. Funkcja ta wykorzystuje sztuczną inteligencję do wygenerowania podsumowania powiązanej strony Confluence lub wpisu na blogu na potrzeby karty centrum firmy. Uważamy, że podsumowania AI na kartach centrum firmy działają najlepiej w scenariuszach, w których:
|
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych przez funkcję podsumowań AI na kartach centrum firmy mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że funkcja podsumowań AI na kartach centrum firmy jest mniej użyteczna w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Rovo, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. |
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki funkcja podsumowań AI na kartach centrum firmy wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Funkcja podsumowań AI na kartach centrum firmy stosuje poniższe środki w odniesieniu do Twoich danych.
|
| Zasoby powiązane ze sztuczną inteligencją są obsługiwane przez duże modele językowe opracowane przez OpenAI, a także kombinację dużych modeli językowych typu open-source (w tym serii Llama) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI. Rovo wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach oraz do dostarczania trafnych odpowiedzi od Atlassian i powiązanych produktów innych firm. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model był trenowany. Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI. Aby dowiedzieć się więcej o modelach językowych typu open source, zapoznaj się z informacjami na temat serii Llama. |
| Rovo umożliwia Twoim użytkownikom przyspieszenie procesu rozstrzygania incydentów, sugerując listę zasobów, do których mogą się odwoływać w powiązanych przestrzeniach i artykułach z bazy wiedzy, zgłoszeniach Jira oraz dowolnych produktach innych firm, które zintegrujesz za pośrednictwem Rovo. Przeczytaj więcej o Rovo i narzędziach innych firm. Naszym zdaniem zasoby powiązane z AI najlepiej sprawdzają się w scenariuszach, w których:
|
| Pamiętaj, że ze względu na sposób działania modeli używanych do obsługi zasobów powiązanych z AI, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Z naszych doświadczeń wynika, że zasoby powiązane z AI są mniej użyteczne w scenariuszach, w których:
Dlatego zachęcamy do zastanowienia się, w jakich sytuacjach korzystasz z Rovo, a także do sprawdzania jakości uzyskanych odpowiedzi przed ich udostępnieniem. Inne kwestie warte przemyślenia:
|
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki zasoby powiązane z AI wykorzystują Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań. Przetwarzamy:
W stosunku do Twoich danych zasoby powiązane z AI stosują następujące środki:
|
| Sugestie SI w Jira Service Management są oparte na dużych modelach językowych opracowanych przez OpenAI i innych modelach uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI. Rovo wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model był trenowany. Przeczytaj więcej o możliwościach modeli OpenAI. |
| Dzięki sugestiom SI w Jira Service Management Twój zespół może szybko zacząć działać, błyskawicznie gromadząc ważne informacje na temat wniosków o usługę i incydentów. Rovo pomaga zespołowi:
Sugestie SI w Jira Service Management mogą również zalecać agentom eskalację wniosku lub incydentu, gdy odpowiednia umowa SLA ma zostać naruszona. W przypadku wniosków o usługę funkcja ta może również sugerować agentom eskalację tego wniosku, gdy modele używane do obsługi tych sugestii identyfikują, na podstawie tekstu komentarzy zgłaszającego, poczucie pilności lub gniewu w związku z tym wnioskiem. Wierzymy, że sugestie SI w Jira Service Management najlepiej sprawdzają się w sytuacjach, w których:
|
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych w sugestiach SI w Jira Service Management, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Na przykład otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Z naszych doświadczeń wynika, że sugestie SI w Jira Service Management są mniej przydatne w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Rovo, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki sugestie SI w Jira Service Management wykorzystują Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Funkcja sugestii SI stosuje poniższe środki w stosunku do Twoich danych.
|
Rovo Dev
| Rovo Dev is powered by large language models developed by OpenAI and Anthropic on AWS Bedrock and Anthropic on Google Vertex AI, as well as a combination of other machine learning models. These large language models include OpenAI's GPT series of models and Anthropic's Claude series of models. Rovo Dev uses these models to analyze and generate natural language and code within our products. These models generate responses based on your inputs and are probabilistic in nature. This means that their responses are generated through predicting the most probable next word or text based on the data that they have been trained on. Read more about the capabilities of OpenAI's models and Anthropic's models. |
| Rovo Dev is a context-aware AI agent for professional software engineers. It understands natural language and code, and integrates with Atlassian tools like Jira, Confluence, and Bitbucket as well as third-party developer platforms such as GitHub. Powered by Atlassian’s Teamwork Graph, it draws on organizational context, business knowledge, and codebase history to accelerate the software development lifecycle. Rovo Dev assists with planning, code generation, reviews, and automating repetitive work at scale. The Rovo Dev product suite includes:
We believe that Rovo Dev works best in scenarios where:
|
| It's important to remember that because of the way that the models used to power Rovo Dev work, these models can sometimes behave in ways that are inaccurate, incomplete, or unreliable. For example, the responses that you receive might not accurately reflect the content that they are based on, or include content that sounds reasonable but is false or incomplete. We've found that Rovo Dev is less useful in scenarios where:
You might also want to think about:
|
| We understand you may have questions about how Rovo Dev uses your data. This section supplements the information available on our Rovo Dev Page. We process:
When it comes to your data, Rovo Dev applies the following measures: Your prompts (inputs) and responses (outputs):
Third-party processing:
Permissions and access:
|
| Automatyzacja wykorzystująca sztuczną inteligencję opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open-source (w tym serii Llama i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic. Rovo wykorzystuje te modele do analizy danych wprowadzanych w języku naturalnym i generowania dla Ciebie reguł automatyzacji w Jirze i Confluence. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zapoznaj się z informacjami na temat serii Llama. |
| Tworzenie reguł leży u podstaw codziennej automatyzacji. Chcemy je dodatkowo ułatwić, dodając Rovo do kreatora reguł automatyzacji w Jirze i Confluence. Teraz możesz łatwo tworzyć reguły automatyzacji, wpisując i opisując, co chcesz zautomatyzować, i pozwalać Rovo zająć się tym, co najtrudniejsze w tworzeniu reguły. Dowiedz się więcej o automatyzacji za pomocą Rovo w Jirze i Confluence. Naszym zdaniem wykorzystywanie automatyzacji przy użyciu Rovo w przypadku Jiry i Confluence sprawdza się najlepiej w sytuacjach, gdy nie wiesz, jak zacząć, lub chcesz przyspieszyć proces tworzenia reguł. Nie wiesz, jak najlepiej zabrać się za utworzenie reguły automatyzacji?Reguły automatyzacji są tworzone przez kombinację różnych typów komponentów: wyzwalaczy, czynności, warunków i gałęzi. Wyobraź sobie, że komponenty to podstawowe części składowe reguły. Aby utworzenie reguły za pomocą Rovo się powiodło, musi ona zawierać przynajmniej wyzwalacz i czynność. Przykładowo: W Jirze: Co poniedziałek wyszukuj wszystkie zadania z terminem przypadającym w ciągu kolejnych 7 dni i wysyłaj przypisanej osobie wiadomość e-mail z przypomnieniem. Kiedy zgłoszenie przejdzie do testowania, przypisz je Janowi Kowalskiemu. W Confluence:
Ponadto aby tworzenie reguły się powiodło, wszystkie jej komponenty muszą być obsługiwane przez automatyzację przy użyciu Rovo. Oznacza to, że wszelkie wyzwalacze, czynności, warunki lub gałęzie w regule muszą być zgodne z automatyzacją w Jirze lub Confluence. |
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi automatyzacji za pomocą Rovo mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Ustaliliśmy, że automatyzacja przy użyciu Rovo jest mniej przydatna w następujących sytuacjach:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Rovo, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Automatyzacja przy użyciu Rovo działa tylko z istniejącym zestawem dostępnych komponentów automatyzacji w Jirze i Confluence. Warto też pamiętać, aby polecenia dla Rovo formułować jak najkonkretniej, czyli zgodnie z powyższym opisem. |
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki automatyzacja przy użyciu Rovo wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na naszej stronie z często zadawanymi pytaniami. Przetwarzamy:
Jeśli chodzi o Twoje dane, to podczas automatyzacji Confluence za pomocą Rovo stosowane są następujące środki:
Wszyscy zewnętrzni dostawcy LLM są podrzędnymi podmiotami przetwarzającymi i są wymienieni na naszej stronie Podrzędne podmioty przetwarzające. Nie wykorzystują oni Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania. Ta funkcja działa zgodnie z uprawnieniami w instancji. Przykładowo jeśli nie masz dostępu do określonego projektu lub strony, otrzymana odpowiedź nie będzie zawierać sugerowanej treści z tej strony. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji. |
Grupowanie alertów
| Grupowanie alertów przez sztuczną inteligencję obsługują duże modele językowe opracowane przez OpenAI i Google. Modele te obejmują algorytm przeznaczony do rozpoznawania wzorców w danych alertów oraz serię modeli GPT firmy OpenAI i Gemini firmy Google. Rovo wykorzystuje te modele uczenia maszynowego do analizowania i generowania grup alertów oraz przedstawiania powiązanych sugestii (wcześniejsze grupy alertów i wcześniejsze osoby reagujące na alerty) w naszych produktach w oparciu o podobieństwo treści alertów lub użytych tagów. Następnie Rovo wykorzystuje duże modele językowe do analizowania i generowania opisów i treści w języku naturalnym dla tych grup w naszych produktach. Te duże modele językowe generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI i modeli Google. |
| Grupowanie alertów wykorzystuje sztuczną inteligencję do rozpoznawania i grupowania podobnych alertów. Pomaga również rozpoznawać i rekomendować wcześniejsze podobne grupy alertów i wcześniejsze osoby reagujące na alerty (lub zespoły osób reagujących) w oparciu o semantyczne podobieństwo treści alertów lub użytych tagów. Jeśli chcesz eskalować grupę alertów do incydentu, grupowanie alertów spowoduje również wstępne wypełnienie wszystkich informacji kontekstowych, które możesz przeglądać w ramach procesu tworzenia incydentu. Naszym zdaniem grupowanie alertów najlepiej sprawdza się w scenariuszach, w których:
|
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych w grupowaniu alertów, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Z kolei grupy alertów, które wyświetlasz, mogą nie odzwierciedlać dokładnie semantycznego podobieństwa ich tagów. Z naszych doświadczeń wynika, że grupowanie alertów jest mniej użyteczne w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Rovo, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Warto też zadbać, aby zespół stosował spójne praktyki dotyczące używania tagów alertów. |
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki grupowanie alertów wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań. Przetwarzamy:
Przetwarzamy dane alertów, aby przeszkolić wersję modelu uczenia maszynowego w celu rozpoznawania wzorców specyficznych dla Twoich alertów. Ta wersja służy tylko do obsługi Twojego środowiska:
Podczas grupowania alertów wobec Twoich danych stosowane są wymienione poniżej środki:
|
| Podsumowanie stron i blogów za pomocą sztucznej inteligencji opiera się na dużych modelach językowych opracowanych przez OpenAI i Google. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI i serię modeli Gemini firmy Google. Rovo wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI i modeli Google. |
| Oszczędzaj czas i uzyskuj szczegóły potrzebne do szybszego wykonywania pracy, generując krótkie podsumowania stron lub blogów Confluence za pomocą sztucznej inteligencji.Dowiedz się więcej o korzystaniu ze sztucznej inteligencji w Confluence. Naszym zdaniem podsumowywanie stron i blogów za pomocą Rovo najlepiej sprawdza się wówczas, gdy:
|
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych do podsumowywania stron i blogów za pomocą sztucznej inteligencji mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Na przykład otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Chociaż nadal pracujemy nad lepszą obsługą makr i tabel oraz rozszerzamy podsumowania, ustaliliśmy, że podsumowywanie stron i blogów za pomocą Rovo jest mniej przydatne w scenariuszach, w których:
Zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Rovo, a także do sprawdzania jakości uzyskanych odpowiedzi przed ich udostępnieniem. Inne kwestie warte przemyślenia:
|
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki sztuczna inteligencja wykorzystuje Twoje dane do automatyzacji Confluence. Ta sekcja stanowi uzupełnienie informacji dostępnych na naszej stronie z często zadawanymi pytaniami. Przetwarzamy:
Jeśli chodzi o Twoje dane, to podczas podsumowywania stron i blogów za pomocą Rovo stosowane są następujące środki:
|
Definiowanie terminów za pomocą Atlassian Intelligence
| Definiowanie terminów z wykorzystaniem Rovo w Confluence i Jirze opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open-source (w tym serii Llama i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic. Rovo wykorzystuje te modele do analizy i generowania odpowiedzi w języku naturalnym w Confluence i Jirze. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zapoznaj się z informacjami na temat serii Llama. |
| Jedną z najtrudniejszych rzeczy związanych z korzystaniem z treści w Confluence i Jira może być zdobycie kontekstu potrzebnego do zrozumienia tego, co czytasz. Skróty, akronimy, nieznane terminy oraz nazwy specyficzne dla zespołu lub projektu mogą wymagać czasochłonnego wyszukiwania potrzebnych informacji. Funkcja definiowania terminów za pomocą Rovo pozwala uzyskać definicję terminów specyficznych dla danej firmy (np. akronimów, nazw projektów, systemów lub zespołów) na stronie w Confluence lub w opisie zgłoszenia w Jirze. Dzięki temu użytkownik otrzymuje niezbędne informacje wtedy, kiedy ich potrzebuje, a wszystko to pomaga zespołom sprawniej współpracować. Rovo pozwala oszczędzać czas, ponieważ definiuje terminy za Ciebie, dzięki czemu nie musisz przerywać lektury. Jeśli napotkasz definicję, którą uważasz za niedokładną, możesz edytować lub dodać nową definicję, a następnie ustawić widoczność dla tej strony lub tego zgłoszenia, całej przestrzeni lub projektu bądź uzyskać dostęp do całej organizacji. Naszym zdaniem definiowanie terminów za pomocą Rovo w Confluence i Jirze najlepiej sprawdza się w sytuacjach, gdy:
|
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych do definiowania odpowiedzi za pomocą Rovo w Confluence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Ustaliliśmy, że użycie sztucznej inteligencji do definiowania terminów w Confluence jest mniej przydatne w sytuacjach, w których:
Ponadto zauważyliśmy, że ponieważ definiowanie terminów za pomocą Rovo opiera się na wyszukiwaniu w Confluence, funkcja ta będzie działać w Jirze tylko wtedy, gdy masz uprawnienie do wyświetlania instancji Confluence w tej samej witrynie co instancji Jiry. Może się również zdarzyć, że definiowanie terminów za pomocą Rovo nie będzie działać zgodnie z oczekiwaniami w przestrzeniach Confluence lub instancjach Jiry, które zawierają treści napisane w wielu językach. |
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Rovo wykorzystuje Twoje dane podczas definiowania terminów. Ta sekcja stanowi uzupełnienie informacji dostępnych na naszej stronie z często zadawanymi pytaniami. Przetwarzamy:
Jeśli chodzi o Twoje dane, to podczas definiowania terminów za pomocą Rovo stosowane są następujące środki:
|
Generatywna SI w edytorze
| Sztuczna inteligencja w edytorach opiera się na dużych modelach językowych opracowanych przez OpenAI i Google. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI i serię modeli Gemini firmy Google. Rovo wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI i modeli Google. |
| Rovo pomaga prowadzić skuteczną komunikację we wszystkich zespołach w organizacji w celu poprawy wydajności oraz usprawnienia procesów i podejmowania decyzji. Naszym zdaniem wykorzystanie Rovo w edytorach najlepiej sprawdza się w następujących scenariuszach:
|
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych przez sztuczną inteligencję w edytorach mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Ustaliliśmy, że wykorzystanie Rovo w edytorach jest mniej przydatne w sytuacjach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Rovo, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki sztuczna inteligencja wykorzystuje Twoje dane w edytorach. Ta sekcja stanowi uzupełnienie informacji dostępnych na naszej stronie z często zadawanymi pytaniami. Przetwarzamy:
Jeśli chodzi o Twoje dane, to podczas edytowania za pomocą Rovo stosowane są następujące środki:
|
| Narzędzie do zmiany formatu zgłoszeń jest obsługiwane przez duże modele językowe opracowane przez OpenAI, w tym serię modeli GPT OpenAI. Rovo wykorzystuje ten model do analizy i generowania języka naturalnego w Jirze. Te modele generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model był trenowany. Przeczytaj więcej o możliwościach modeli OpenAI. |
| Narzędzie do zmiany formatu zgłoszeń pomaga poprawić przejrzystość opisów zgłoszeń w Jirze poprzez ponowne formatowanie ich przy użyciu szablonu opracowanego przez firmę Atlassian. Ten szablon obejmuje typy informacji, których zwykle można spodziewać się w opisie zgłoszenia Jira, takie jak historyjka użytkownika, kontekst pracy i kryteria akceptacji. Uważamy, że narzędzie zmiany formatu zgłoszeń działa najlepiej w scenariuszach, w których opisy zgłoszeń już zawierają przydatne informacje (takie jak kryteria akceptacji lub łącza do źródeł), ale informacje te nie są sformatowane przy użyciu przejrzystej lub spójnej struktury. |
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi narzędzia do zmiany formatu zgłoszeń, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo opis po zmianie formatowania może nie odzwierciedlać dokładnie treści, na której został oparty, lub zawierać szczegóły, która brzmią rozsądnie, jednak są nieprawdziwe lub niekompletne. Z naszych doświadczeń wynika, że narzędzie do zmiany formatu zgłoszeń jest mniej użyteczne w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Rovo, a także do sprawdzania jakości uzyskanych odpowiedzi przed ich udostępnieniem. Dobrym pomysłem może być przejrzenie i zweryfikowanie, czy opisy zgłoszeń zawierają wszystkie istotne informacje, zanim zaczniesz używać narzędzia do zmiany formatu zgłoszeń. |
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki narzędzie do zmiany formatu zgłoszeń wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Podczas korzystania z narzędzia do zmiany formatu zgłoszeń wobec Twoich danych stosowane są wymienione poniżej środki:
|
Podsumowanie szczegółów zgłoszenia w Jira Service Management
| Podsumowywanie szczegółów zgłoszenia za pomocą sztucznej inteligencji jest oparte na dużych modelach językowych opracowanych przez OpenAI i Google. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI i serię modeli Gemini firmy Google. Rovo wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI i modeli Google. |
| Zamiast czytać długie opisy i liczne komentarze na temat zgłoszenia Jira Service Management możesz użyć Rovo w celu szybkiego wygenerowania podsumowania tych informacji. Dzięki temu agenci mogą szybko zapoznać się z kontekstem zgłoszenia i wszelkimi postępami, co pozwala im podejmować niezwłoczne działania i szybko udzielać pomocy. Naszym zdaniem podsumowywanie szczegółów zgłoszenia za pomocą Rovo najlepiej sprawdza się w następujących przypadkach:
|
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych do podsumowywania szczegółów zgłoszenia za pomocą sztucznej inteligencji mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że podsumowanie szczegółów zgłoszenia przy użyciu Rovo jest mniej przydatne w następujących sytuacjach:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Rovo, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. |
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki sztuczna inteligencja wykorzystuje Twoje dane podczas podsumowywania szczegółów zgłoszenia. Ta sekcja stanowi uzupełnienie informacji dostępnych na naszej stronie z często zadawanymi pytaniami. Przetwarzamy:
Podczas podsumowywania szczegółów zgłoszenia za pomocą Rovo w odniesieniu do Twoich danych stosowane są następujące środki:
|
Generatywna SI w edytorze
| Podsumowywanie inteligentnych łączy wykorzystujące Atlassian Intelligence (AI) opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open source (w tym serii Llama, Phi i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi. |
| Po najechaniu kursorem na inteligentne łącze z Jira, Confluence i Dokumentów Google Atlassian Intelligence może pomóc Ci w podsumowaniu treści, co pozwala określić znaczenie i wartość łącza oraz zdecydować o następnym kroku. Zmniejsza to potrzebę opuszczenia bieżącej strony i zmiany kontekstu. Uważamy, że podsumowywanie inteligentnych łączy za pomocą SI działa najlepiej w scenariuszach, w których:
|
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych przy podsumowywaniu inteligentnych łączy dzięki SI, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Otrzymane podsumowania mogą na przykład nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Odkryliśmy, że podsumowywanie inteligentnych łączy za pomocą SI jest mniej przydatne w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. |
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas podsumowywania szczegółów zgłoszenia. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań. Przetwarzamy:
Jeśli chodzi o Twoje dane, podczas podsumowywania inteligentnych łączy za pomocą SI stosuje się wymienione poniżej środki.
|
Podsumowanie szczegółów zgłoszenia za pomocą Atlassian Intelligence
| Podsumowania AI w Jirze opierają się na dużych modelach językowych opracowanych przez OpenAI. Są wśród nich modele OpenAI opisane tutaj. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony. Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI. |
| Zamiast czytać długie opisy i liczne komentarze na temat zgłoszenia w Jirze, możesz użyć Atlassian Intelligence w celu szybkiego wygenerowania podsumowania tych informacji. Dzięki temu agenci mogą szybko zapoznać się z kontekstem zgłoszenia i wszelkimi postępami, co pozwala im podejmować niezwłoczne działania i udzielać pomocy. Naszym zdaniem podsumowywanie szczegółów zgłoszenia za pomocą Atlassian Intelligence najlepiej sprawdza się w przypadku zgłoszeń z dużą liczbą komentarzy i/lub długimi komentarzami oraz opisami. |
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi zgłoszeń AI w Jirze, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Z naszych doświadczeń wynika, że podsumowanie szczegółów zgłoszenia przy użyciu Atlassian Intelligence jest mniej przydatne w następujących sytuacjach:
Dlatego zachęcamy do przeanalizowania sytuacji, w których korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. |
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas podsumowywania szczegółów zgłoszenia. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Podczas podsumowywania szczegółów zgłoszenia za pomocą Atlassian Intelligence w odniesieniu do Twoich danych stosowane są następujące środki:
|
Odpowiedzi Atlassian Intelligence w Jira Service Management
| Wirtualny agent obsługi Jira Service Management jest obsługiwany przez duże modele językowe opracowane przez OpenAI i Google, a także duże modele językowe typu open source (w tym seria Llama). Wirtualny agent obsługi wykorzystuje te modele w następujący sposób:
Sposób działania dużych modeli językowych: Duże modele językowe generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model był trenowany. Duże modele językowe wykorzystywane w przypadku wirtualnego agenta obsługi obejmują serię modeli GPT firmy OpenAI i serię modeli Gemini firmy Google. Dowiedz się więcej o możliwościach modeli OpenAI i modeli Google. Aby dowiedzieć się więcej o modelach językowych typu open source, zapoznaj się z informacjami na temat serii Llama. |
| Wirtualny agent obsługi pomaga zespołom zautomatyzować interakcje ze wsparciem 1. poziomu, wykorzystując konwersacyjny silnik Atlassian Intelligence, który analizuje oraz rozpoznaje zamiary, kontekst i uprawnienia w celu spersonalizowania interakcji. Korzystając z Atlassian Intelligence, wirtualny agent obsługi pomaga zespołom skalować ich centra obsługi i spełniać oczekiwania klientów dzięki trzem kluczowym funkcjom:
Wirtualny agent obsługi jest dostępny w wielu kanałach, w tym w aplikacjach Slack oraz Microsoft Teams, portalu Jira Service Management i nie tylko. Przeczytaj więcej o kanałach dostępnych dla wirtualnego agenta obsługi. Naszym zdaniem wirtualny agent obsługi najlepiej sprawdza się w scenariuszach, w których:
|
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych w przypadku wirtualnego agenta obsługi, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Z naszych doświadczeń wynika, że wirtualny agent obsługi jest mniej użyteczny w scenariuszach, w których:
Zachęcamy do zastanowienia się nad sytuacjami, w których możesz korzystać z Atlassian Intelligence, i sprawdzenia działania wirtualnego agenta obsługi przed włączeniem go dla klientów. Przeczytaj więcej o poprawie skuteczności wirtualnego agenta obsługi. Inne kwestie warte przemyślenia:
|
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu wykorzystania Twoich danych przez wirtualnego agenta obsługi Jira Service Management. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań. Przetwarzamy:
Wirtualny agent obsługi stosuje następujące środki w stosunku do Twoich danych:
|
Podział pracy dzięki AI
| Funkcja podziału pracy dzięki AI opiera się na dużych modelach językowych opracowanych przez OpenAI. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Przeczytaj o funkcjonalności modeli OpenAI lub o tym podejściu w artykułach badawczych OpenAI. |
| Funkcja podziału pracy dzięki AI sugeruje zgłoszenia podrzędne na podstawie utworzonego przez Ciebie zgłoszenia Jira, ułatwiając podzielenie dużych fragmentów pracy na mniejsze. Twoje zgłoszenie jest używane jako kontekst do generowania sugestii dotyczących podsumowań i opisów zgłoszeń podrzędnych. Naszym zdaniem funkcja podziału pracy dzięki AI najlepiej sprawdza się w scenariuszach, w których:
|
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi funkcji podziału pracy dzięki AI, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że funkcja podziału pracy dzięki AI jest mniej użyteczna w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki funkcja podziału pracy dzięki AI wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Funkcja podziału pracy dzięki AI stosuje poniższe środki w stosunku do Twoich danych.
|
Użyj sztucznej inteligencji jako siły napędowej
Wybierz funkcję Rovo poniżej, aby uzyskać przejrzyste informacje na temat przypadków użycia i wykorzystania danych.
| Tworzenie incydentów dzięki sztucznej inteligencji wykorzystującej Rovo opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open-source (w tym serii Llama i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic. Rovo wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Te modele generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik był trenowany. Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zapoznaj się z informacjami na temat serii Llama. |
| Podczas eskalacji alertów lub grup alertów do incydentu w Jira Service Management funkcja tworzenia incydentów za pomocą sztucznej inteligencji wykorzystuje Rovo do szybkiego wstępnego wypełnienia wszystkich informacji kontekstowych, które możesz przeglądać w ramach procesu tworzenia incydentu. Dzięki temu użytkownicy mogą szybko zapoznać się z kontekstem incydentu utworzonego na podstawie tych alertów lub grup alertów, a także przejrzeć i potwierdzić wstępnie wypełnione informacje, w tym tytuł, opis i priorytet alertu podczas eskalowania go do incydentu. Uważamy, że tworzenie incydentów za pomocą SI działa najlepiej w scenariuszach, w których:
|
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych w tworzeniu incydentu za pomocą SI mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Odkryliśmy, że tworzenie incydentów za pomocą SI jest mniej przydatne w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Rovo, a także do sprawdzania jakości uzyskanych odpowiedzi przed ich udostępnieniem. Aby uzyskać najbardziej przydatne wyniki, należy jak najbardziej konkretnie formułować zapytania do Rovo. |
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki tworzenie incydentu za pomocą SI wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań Przetwarzamy:
Jeśli chodzi o Twoje dane, podczas tworzenia incydentu za pomocą SI stosuje się wymienione poniżej środki:
|
Tworzenie przeglądu po incydencie
| Tworzenie przeglądu po incydencie (PIR, Post-Incident Review) przez Rovo jest obsługiwane przez duże modele językowe opracowane przez OpenAI. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI. Rovo wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Te modele generują odpowiedzi na podstawie danych wejściowych użytkowników i mają charakter probabilistyczny. Oznacza to, że odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik był trenowany. Przeczytaj więcej o możliwościach modeli OpenAI. |
| Przeglądy po incydentach stanowią podstawową część procesu zarządzania incydentami. Pomagają reagującym na incydenty i menedżerom wyciągać wnioski z bieżących incydentów i przekazywać analizy w celu zapobiegania podobnym incydentom w przyszłości. Rovo pomaga przyspieszyć często czasochłonne zadanie sporządzania przeglądu po incydencie, sugerując przejrzenie jego opisu wygenerowanego w oparciu o odpowiednie informacje kontekstowe z instancji Jira Service Management i narzędzi czatu, takich jak Slack. Naszym zdaniem tworzenie przeglądów po incydentach za pomocą AI najlepiej sprawdza się w scenariuszach, w których:
|
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi tworzenia przeglądów po incydentach, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Na przykład otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która może brzmieć rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Z naszych doświadczeń wynika, że tworzenie przeglądu po incydencie jest mniej użyteczne w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach możesz skorzystać z Rovo, a także do sprawdzania jakości uzyskanych odpowiedzi przed ich udostępnieniem. Inne kwestie warte przemyślenia:
|
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki funkcja tworzenie przeglądu po incydencie za pomocą AI wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na naszej stronie często zadawanych pytań. Przetwarzamy:
Funkcja tworzenia przeglądów po incydentach za pomocą AI stosuje poniższe środki w stosunku do Twoich danych.
|
Generowanie opisów pull requestów za pomocą Atlassian Intelligence
| Generowanie opisów pull requestów za pomocą sztucznej inteligencji opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open-source (w tym serii Llama i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic. Rovo wykorzystuje te modele do analizy i generowania języka naturalnego i kodu w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zapoznaj się z informacjami na temat serii Llama. |
| Rovo może pomóc w generowaniu, przekształcaniu i podsumowywaniu treści podczas tworzenia opisów lub komentarzy do pull requestów w ramach przeglądu kodu w Bitbucket Cloud. Przykładowo:
Naszym zdaniem generowanie opisów pull requestów w Bitbucket Cloud za pomocą Rovo najlepiej sprawdza się w sytuacjach, gdy:
|
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi tej funkcji, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Na przykład otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Zauważyliśmy, że generowanie opisów pull requestów w Bitbucket Cloud za pomocą Rovo sprawdza się gorzej w sytuacjach, gdy:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Rovo, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Rovo wykorzystuje Twoje dane w Confluence podczas definiowania terminów. Ta sekcja stanowi uzupełnienie informacji dostępnych na naszej stronie z często zadawanymi pytaniami. Przetwarzamy:
Podczas generowania opisów pull requestów za pomocą Rovo w odniesieniu do Twoich danych stosuje się następujące środki:
|
Generowanie zapytań SQL w Atlassian Analytics
| Generowanie zapytań SQL z wykorzystaniem sztucznej inteligencji w Atlassian Analytics opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open-source (w tym serii Llama i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic. Rovo wykorzystuje te modele do analizy i zrozumienia języka naturalnego, który następnie przekłada na język SQL w Atlassian Analytics. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zapoznaj się z informacjami na temat serii Llama. |
| Zamiast pisać własne zapytania SQL od zera, zadaj Rovo pytanie w języku naturalnym, aby przetłumaczył je na SQL. Po otrzymaniu pytania Rovo wykorzystuje schemat Atlassian Data Lake wybranego źródła danych do wygenerowania zapytania SQL, które może być używane do tworzenia wykresów na pulpitach Atlassian Analytics, a także może pomóc w poznaniu schematu w Data Lake. Naszym zdaniem generowanie zapytań SQL za pomocą Rovo najlepiej sprawdza się w sytuacjach, gdy:
Nie wiesz, jakie pytania zadawać?Oto kilka sugestii:
|
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych do generowania zapytań SQL za pomocą sztucznej inteligencji mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że generowanie zapytań SQL za pomocą Rovo jest mniej przydatne w następujących sytuacjach:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Rovo, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Rovo wykorzystuje Twoje dane podczas generowania zapytań SQL. Ta sekcja stanowi uzupełnienie informacji dostępnych na naszej stronie z często zadawanymi pytaniami. Przetwarzamy:
Podczas generowania zapytań SQL za pomocą Rovo w odniesieniu do Twoich danych stosowane są następujące środki:
|
Wyszukiwanie odpowiedzi w Confluence
| Wyszukiwanie odpowiedzi w Confluence za pomocą Rovo opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open-source (w tym serii Llama i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic. Rovo wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zapoznaj się z informacjami na temat serii Llama. |
| Bazy wiedzy rosną zbyt szybko, aby użytkownicy mogli nadążyć. Wyszukiwanie odpowiedzi w Confluence za pomocą Rovo skraca drogę do kluczowych informacji potrzebnych klientom do kontynuowania pracy. Funkcja ta pomaga łatwo znajdować potrzebne informacje. Rozpoznaje rodzaje pytań, które mogłyby zostać zadane koledze z zespołu, i natychmiast na nie odpowiada. Dowiedz się więcej o wykorzystaniu Rovo do wyszukiwania odpowiedzi w Confluence. Naszym zdaniem wyszukiwanie odpowiedzi w Confluence za pomocą Rovo działa najlepiej, gdy witryna Confluence jest pełna szczegółowych, kompletnych i aktualnych treści. Funkcja ta nie generuje nowych treści, ale przeszukuje strony i blogi Confluence (z poszanowaniem ograniczeń), aby znaleźć odpowiedź na Twoje pytanie. Rovo generuje odpowiedzi wyłącznie na podstawie informacji zawartych w Confluence, w szczególności tych, do których masz dostęp. Nie wiesz, jakie pytania zadawać?Oto kilka sugestii:
|
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Rovo wykorzystuje Twoje dane podczas wyszukiwania odpowiedzi w Confluence. Ta sekcja stanowi uzupełnienie informacji dostępnych na naszej stronie z często zadawanymi pytaniami. Przetwarzamy:
Podczas wyszukiwania odpowiedzi w Confluence za pomocą Rovo w odniesieniu do Twoich danych stosowane są następujące środki:
|
Wyszukiwanie zgłoszeń w Jirze
| Wyszukiwanie zgłoszeń za pomocą Rovo w Jirze opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open-source (w tym serii Llama i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic. Rovo wykorzystuje te modele do analizy i zrozumienia języka naturalnego, który następnie przekłada na kod JQL (Jira Query Language) w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zapoznaj się z informacjami na temat serii Llama. |
| Rovo pozwala teraz na interakcję w języku potocznym — bez konieczności formułowania złożonych zapytań. Rovo przekłada prompt na zapytanie JQL, które szybko pomaga w wyszukaniu konkretnych zgłoszeń. Naszym zdaniem wyszukiwanie zgłoszeń za pomocą Rovo najlepiej sprawdza się w następujących sytuacjach:
|
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych do wyszukiwania zgłoszeń za pomocą Rovo mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Otrzymane odpowiedzi mogą na przykład nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Z naszych doświadczeń wynika, że wyszukiwanie zgłoszeń za pomocą Rovo jest mniej przydatne w następujących sytuacjach:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Rovo, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Warto też pamiętać, aby polecenia dla Rovo formułować jak najkonkretniej. Podaj dokładnie te pola i wartości, których szukasz. |
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki sztuczna inteligencja wykorzystuje Twoje dane podczas wyszukiwania zgłoszeń. Ta sekcja stanowi uzupełnienie informacji dostępnych na naszej stronie z często zadawanymi pytaniami. Przetwarzamy:
Podczas wyszukiwania zgłoszeń za pomocą Rovo w odniesieniu do Twoich danych stosowane są następujące środki:
|
Podział pracy dzięki AI
| Funkcja podziału pracy dzięki AI opiera się na dużych modelach językowych opracowanych przez OpenAI. Rovo wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Poczytaj o możliwościach modeli OpenAI. |
| Funkcja podziału pracy dzięki AI sugeruje zgłoszenia podrzędne na podstawie utworzonego przez Ciebie zgłoszenia Jira, ułatwiając podzielenie dużych fragmentów pracy na mniejsze. Twoje zgłoszenie jest używane jako kontekst do generowania sugestii dotyczących podsumowań i opisów zgłoszeń podrzędnych. Naszym zdaniem funkcja podziału pracy dzięki AI najlepiej sprawdza się w scenariuszach, w których:
|
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi funkcji podziału pracy dzięki AI, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że funkcja podziału pracy dzięki AI jest mniej użyteczna w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Rovo, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki funkcja podziału pracy dzięki AI wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Funkcja podziału pracy dzięki AI stosuje poniższe środki w stosunku do Twoich danych.
|
| Sugerowane tematy w bazie wiedzy bazują na dużych modelach językowych opracowanych przez OpenAI i Anthropic, a także na połączeniu modeli językowych opartych na transformatorach open source i innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT OpenAI i serię modeli Claude firmy Anthropic. Rovo wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele kodujące open-source konwertują tekstowe dane wejściowe w formy numeryczne (osadzenia), które są używane do identyfikowania i przygotowania tematów na podstawie danych wejściowych. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model był trenowany. Dowiedz się więcej o możliwościach modeli OpenAI i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat Multi-QA-MiniLM i E5-Multilingual. |
| Funkcja ta pomaga administratorom i agentom zrozumieć luki w ich bazie wiedzy poprzez analizę wniosków o usługę otrzymanych w projekcie. Wyróżnia ona tematy, dla których osoby poszukujące pomocy zgłaszają wnioski (na podstawie danych z ostatnich 30 dni), ale dla których nie ma już istniejącej wiedzy. Sugerowanie tematów ma zapewnić administratorom projektów i agentom wgląd w to, ile wniosków można skierować do samoobsługi lub przynajmniej rozwiązać za pomocą wiedzy. W naszym przekonaniu zwiększenie liczby artykułów wiedzy wpłynie na działanie innych funkcji w Jira Service Management, takich jak odpowiedzi SI wirtualnego agenta obsługi. Tworzenie przez administratorów lub agentów artykułów na sugerowane tematy może również pomóc w poprawie wskaźnika rozwiązywania wniosków za pomocą odpowiedzi SI. Naszym zdaniem sugerowane tematy najlepiej sprawdzają się w scenariuszach, w których:
|
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi sugerowanych tematów w bazie wiedzy mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że sugerowane tematy w bazie wiedzy są mniej przydatne w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Rovo, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki funkcja sugerowanych tematów wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Podczas sugerowania tematów wobec Twoich danych stosowane są wymienione poniżej środki. Sugerowane tematy w bazie wiedzy:
|
Wyszukiwanie treści w Confluence
| Wyszukiwanie treści Confluence za pomocą sztucznej inteligencji opiera się na dużych modelach językowych opracowanych przez OpenAI i Google. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI i serię modeli Gemini firmy Google. Rovo wykorzystuje te modele do analizy i generowania języka naturalnego, który następnie przekłada na język CQL (Confluence Query Language) w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model był trenowany. Przeczytaj więcej o możliwościach modeli OpenAI. |
| Rovo pozwala teraz na wyszukiwanie treści w Confluence w języku potocznym — bez konieczności formułowania złożonych zapytań. Z pomocą Rovo następuje przekład promptu na zapytanie w CQL, które szybko pomaga w wyszukaniu konkretnych treści. Naszym zdaniem wyszukiwanie treści Confluence za pomocą Rovo najlepiej sprawdza się w następujących sytuacjach:
|
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych do wyszukiwania treści Confluence za pomocą sztucznej inteligencji mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że wyszukiwanie treści Confluence za pomocą Rovo jest mniej przydatne w następujących sytuacjach:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Rovo, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Warto też pamiętać, aby polecenia dla Rovo formułować jak najkonkretniej. Podaj dokładnie te pola i wartości, których szukasz. |
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki sztuczna inteligencja wykorzystuje Twoje dane podczas wyszukiwania treści Confluence. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Podczas wyszukiwania treści Confluence za pomocą Rovo w odniesieniu do Twoich danych stosowane są następujące środki:
|
Przeczytaj więcej o Rovo
Narzędzie do naprawiania błędów JQL
| Narzędzie do naprawiania błędów JQL jest obsługiwane przez duże modele językowe opracowane przez OpenAI i Google, a także kombinację dużych modeli językowych typu open-source (w tym serii Llama). Te duże modele językowe obejmują serię modeli GPT firmy OpenAI i serię modeli Gemini firmy Google. Rovo wykorzystuje te modele do analizy i generowania języka naturalnego i kodu w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Przeczytaj więcej o możliwościach modeli OpenAI. Aby dowiedzieć się więcej o modelach językowych typu open source, zapoznaj się z informacjami na temat serii Llama. |
| Narzędzie do naprawiania błędów JQL pomaga szybko usuwać błędy powstałe podczas pisania zapytania Jira Query Language (JQL). Robi to, analizując komunikat o błędzie i oryginalne zapytanie JQL, aby zasugerować zapytanie JQL wolne od błędów. Naszym zdaniem narzędzie do naprawiania błędów JQL działa najlepiej w scenariuszach, w których użytkownicy poprawnie skonstruowali większość swoich zapytań JQL, ale popełnili błąd w określonym polu lub konkretnej wartości. |
| Należy pamiętać, że ze względu na sposób działania modeli używanych do obsługi narzędzia do naprawiania błędów JQL, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak są nieprawdziwe lub niekompletne. Z naszych doświadczeń wynika, że narzędzie do naprawiania błędów JQL jest mniej użyteczne w scenariuszach, w których:
|
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki narzędzie do naprawiania błędów JQL wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Jeśli chodzi o Twoje dane, narzędzie do naprawiania błędów JQL stosuje wymienione poniżej środki:
|
Przeczytaj więcej o Rovo
Błyskawiczne analizy na podstawie własnych danych
Wybierz funkcję Rovo poniżej, aby uzyskać przejrzyste informacje na temat przypadków użycia i wykorzystania danych.
Analiza wykresów
| Analiza wykresów opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open-source (w tym serii Llama i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic. Rovo wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zapoznaj się z informacjami na temat serii Llama. |
| Analiza wykresów wykorzystuje sztuczną inteligencję, aby przyspieszyć zrozumienie danych na dowolnym wykresie w Atlassian Analytics. Na podstawie tytułu pulpitu oraz tytułu i danych wykresu (w tym nagłówków kolumn i wartości wierszy) funkcja generuje podsumowanie wykresu i jego danych w języku naturalnym. Proces ten ma również na celu zidentyfikowanie wszelkich trendów lub anomalii, aby zapewnić Ci analizy wykresu. Naszym zdaniem analizy wykresów najlepiej sprawdzają się w scenariuszach, w których:
Wykresy słupkowe, wykresy liniowe i wykresy słupkowo-liniowe sprawdzają się najlepiej w przypadku tej funkcji funkcją, ponieważ zazwyczaj zawierają trendy, daty i wiele wierszy danych. |
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych w analizach wykresów, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że analizy wykresów są mniej użyteczne w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Rovo, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki analizy wykresów wykorzystują Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań. Przetwarzamy:
Podczas analizy wykresów wobec Twoich danych stosowane są wymienione poniżej środki.
|
Sugeruj typy wniosku w Jira Service Management
| Sugerowanie typów wniosków za pomocą Rovo jest obsługiwane przez duże modele językowe opracowane przez OpenAI. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI. Rovo wykorzystuje te modele do analizy danych wprowadzanych w języku naturalnym i generowania rekomendacji dotyczących nazw i opisów typów wniosków w ramach usługi Jira Service Management. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Przeczytaj więcej o możliwościach modeli OpenAI. |
| Nie trać czasu na zastanawianie się, jakie typy wniosków musisz utworzyć dla swojego projektu. Zamiast tego korzystaj z sugestii Rovo. Wystarczy, że opiszesz swoją pracę i to, czym zazwyczaj zajmuje się Twój zespół, aby zobaczyć, jakie typy wniosków możesz utworzyć. Wybierz jedną z sugestii wygenerowanych przez Rovo, aby utworzyć typ wniosku. Dowiedz się więcej o tym, jak używać Rovo w celu sugerowania typów wniosków. Naszym zdaniem korzystanie z Rovo w celu sugerowania typów wniosków najlepiej sprawdza się w sytuacjach, w których:
|
| Trzeba pamiętać, że ze względu na sposób działania modeli używanych do sugerowania typów wniosków za pomocą sztucznej inteligencji mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że wykorzystywanie Rovo do sugerowania typów wniosków jest mniej przydatne w sytuacjach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Rovo, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Rovo wykorzystuje Twoje dane w celu sugerowania typów wniosków. Ta sekcja stanowi uzupełnienie informacji dostępnych na naszej stronie z często zadawanymi pytaniami. Przetwarzamy:
Podczas sugerowania typów wniosków za pomocą Rovo w odniesieniu do Twoich danych stosuje się następujące środki.
|
Sugeruj typy wniosku w Jira Service Management
| Podsumowanie obszarów priorytetowych dla kierownictwa jest oparte na dużych modelach językowych opracowanych przez OpenAI. Są wśród nich modele OpenAI opisane tutaj. Rovo wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. |
| Podsumowanie obszarów priorytetowych dla kierownictwa wykorzystuje Rovo w celu przygotowania szybkiego, praktycznego podsumowania obszaru priorytetowego, zawierającego między innymi informacje o realizowanych pracach i kondycji powiązanych celów, sugestie, na co zwrócić uwagę, oraz rekomendacje dotyczące działań naprawczych w odpowiedzi na zgłoszenia. Podsumowania obszarów priorytetowych dla kierownictwa działa najlepiej, gdy:
|
| Należy pamiętać, że ze względu na sposób działania modeli używanych do obsługi podsumowania obszarów priorytetowych dla kierownictwa mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że podsumowanie obszarów priorytetowych dla kierownictwa jest mniej przydatne w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Rovo, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. |
| Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki podsumowania obszarów priorytetowych dla kierownictwa wykorzystują Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Podczas korzystania z podsumowania obszarów priorytetowych dla kierownictwa wobec Twoich danych stosowane są wymienione poniżej środki.
|
Przeczytaj więcej o Rovo
Odniesienia
Na naszej stronie ze statusami produktów Atlassian możesz sprawdzać informacje o statusie produktów aktualizowane w czasie rzeczywistym.
Poznaj podejście Atlassian do zaufania do sztucznej inteligencji
Dowiedz się, w jaki sposób Atlassian zarządza danymi klientów.