View Diff on GitHub
Highlights
今回のコード差分は、主にドキュメントの小規模な更新と調整を含んでいます。以下が主なポイントです:
新機能
articles/ai-studio/.openpublishing.redirection.ai-studio.json
でのリダイレクト設定の追加。
破壊的変更
- 特段の破壊的変更は見られませんが、リンクの更新が行われているため、ドキュメントの参照に影響が出る可能性があります。
その他の更新
- 多数のドキュメントファイルの日付の更新と文書の微調整。
- チュートリアル用画像の改訂。
- Markdownファイルの細かい表現の修正、リンクの更新、用語の一貫性の確保など。
Insights
このコードの更新は、全体としてドキュメントの信頼性とユーザーエクスペリエンスの向上を目的としています。特に、リダイレクト設定の追加やリンクの修正などは、読者が必要な情報に迅速にアクセスできるようにするための重要な変更です。
リダイレクト設定とリンクの更新
リダイレクト設定の更新は、古い内容から新しい情報への円滑な移行をサポートします。例えば、custom-policy-model-deployment.md
からconfigure-deployment-policies
へのリダイレクト設定は、ユーザーが最新のリソースにアクセスするためのガイドとして機能します。
ドキュメントの日付と文言の変更
リリース日や文書内の微細な文言修正は、最新の情報を正確に反映し、読者の混乱を避けるために必要です。これらのマイナーな更新により、内容の清潔さと取り組みやすさが維持され、結果として読者が情報を有効に活用できる環境が整えられています。
チュートリアルの改善
チュートリアル文書やビジュアルコンテンツの更新も重要です。更新された画像や削除・追加された説明は、特に技術的なプロセスを学ぶための中核を成すものであり、視覚的な手引きはユーザーの学習体験を大いに助けます。具体例や手順の追加で、操作方法が明示され、ユーザーが持つ疑問を解消します。
今回の変更は、全体的に情報の一貫性と明瞭性を確保し、ユーザーが直面する可能性のある問題点への対応を改善するように設計されています。技術文書においては、常に進化し続ける技術やツールに合わせた最新情報が必要だということを再認識させる内容であります。
Summary Table
Modified Contents
articles/ai-studio/.openpublishing.redirection.ai-studio.json
Diff
@@ -210,6 +210,11 @@
"redirect_url": "/azure/ai-foundry/model-inference/how-to/create-model-deployments",
"redirect_document_id": false
},
+ {
+ "source_path_from_root": "/articles/ai-studio/how-to/custom-policy-model-deployment.md",
+ "redirect_url": "/azure/ai-foundry/model-inference/how-to/configure-deployment-policies",
+ "redirect_document_id": true
+ },
{
"source_path_from_root": "/articles/ai-studio/ai-services/how-to/content-safety.md",
"redirect_url": "/azure/ai-services/content-safety/how-to/foundry",
Summary
{
"modification_type": "minor update",
"modification_title": "リダイレクト設定の追加"
}
Explanation
このコードの変更は、ai-studio
に関連するリダイレクト設定を更新するためのものであり、特に新しいリダイレクト設定が追加されています。具体的には、custom-policy-model-deployment.md
からconfigure-deployment-policies
へのリダイレクトが設定され、特にこのリダイレクトが文書IDとして利用されることを示しています。これにより、ユーザーがより適切な情報にアクセスできるようになります。全体的に、この変更は5つの行を追加し、既存のリダイレクト設定を拡充する形で行われています。
articles/ai-studio/ai-services/how-to/connect-ai-services.md
Diff
@@ -9,7 +9,7 @@ ms.custom:
- build-2024
- ignite-2024
ms.topic: how-to
-ms.date: 11/19/2024
+ms.date: 2/12/2025
ms.reviewer: eur
ms.author: eur
author: eric-urban
@@ -25,7 +25,7 @@ This article describes how to use new or existing Azure AI services resources in
Depending on the AI service and model you want to use, you can use them in Azure AI Foundry portal via:
- [Bring your existing Azure AI services resources](#bring-your-existing-azure-ai-services-resources-into-a-project) into a project. You can use your existing Azure AI services resources in an Azure AI Foundry project by creating a connection to the resource.
-- The [model catalog](#discover-azure-ai-models-in-the-model-catalog). You don't need a project to browse and discover Azure AI models. Some of the Azure AI services are available for you to try via the model catalog without a project. Some Azure AI services require a project to use in the playgrounds.
+- The [model catalog](#discover-azure-ai-models-in-the-model-catalog). You don't need a project to browse and discover Azure AI models. Some of the Azure AI services are available for you to try via the model catalog without a project. Some Azure AI services require a project to use them in the playgrounds.
- The [project-level playgrounds](#try-azure-ai-services-in-the-project-level-playgrounds). You need a project to try Azure AI services such as Azure AI Speech and Azure AI Language.
- [Azure AI Services demo pages](#try-out-azure-ai-services-demos). You can browse Azure AI services capabilities and step through the demos. You can try some limited demos for free without a project.
- [Fine-tune](#fine-tune-azure-ai-services-models) models. You can fine-tune a subset of Azure AI services models in Azure AI Foundry portal.
@@ -40,7 +40,7 @@ Let's look at two ways to connect Azure AI services resources to an Azure AI Fou
### Connect Azure AI services when you create a project for the first time
-When you create a project for the first time, you also create a hub. When you create a hub, you can select an existing Azure AI services resource (including Azure OpenAI) or create a new AI services resource.
+When you create a project for the first time, you can select an existing Azure AI services resource (including Azure OpenAI) or create a new AI services resource.
:::image type="content" source="../../media/how-to/projects/projects-create-resource.png" alt-text="Screenshot of the create resource page within the create project dialog." lightbox="../../media/how-to/projects/projects-create-resource.png":::
@@ -58,7 +58,7 @@ To use your existing Azure AI services resources (such as Azure AI Speech) in an
:::image type="content" source="../../media/ai-services/connections-add.png" alt-text="Screenshot of the connected resources page with the button to create a new connection." lightbox="../../media/ai-services/connections-add.png":::
-1. On the **Add a connection to external assets** page, select the kind of AI service that you want to connect to the project. For example, you can select Azure OpenAI Service, Azure AI Content Safety, Azure AI Speech, Azure AI Language, and other AI services.
+1. On the **Add a connection to external assets** page, select the kind of AI service that you want to connect to the project. For example, you can select Azure AI services (for a connection to multiple services in one resource), Azure OpenAI Service, Azure AI Content Safety, Azure AI Speech, Azure AI Language, and other AI services.
:::image type="content" source="../../media/ai-services/connections-add-assets.png" alt-text="Screenshot of the page to select the kind of AI service that you want to connect to the project." lightbox="../../media/ai-services/connections-add-assets.png":::
@@ -72,7 +72,7 @@ To use your existing Azure AI services resources (such as Azure AI Speech) in an
You can discover Azure AI models in the model catalog without a project. Some Azure AI services are available for you to try via the model catalog without a project.
-1. Go to the [Azure AI Foundry home page](https://ai.azure.com).
+1. Go to the [Azure AI Foundry portal home page](https://ai.azure.com).
1. Select the tile that says **Model catalog and benchmarks**.
:::image type="content" source="../../media/explore/ai-studio-home-model-catalog.png" alt-text="Screenshot of the home page in Azure AI Foundry portal with the option to select the model catalog tile." lightbox="../../media/explore/ai-studio-home-model-catalog.png":::
@@ -139,9 +139,9 @@ Once you have a project, several Azure AI services models are already deployed a
1. Go to your Azure AI Foundry project.
1. Select **Management center** from the left pane.
1. Select **Models + endpoints** (under **Project**) from the left pane.
-1. Select the **Service deployments** tab to view the list of Azure AI services models that are already deployed.
+1. Select the **Service endpoints** tab to view the list of Azure AI services models that are already deployed.
- :::image type="content" source="../../media/ai-services/endpoint/models-endpoints-ai-services-deployments.png" alt-text="Screenshot of the models and endpoints page to view Azure AI services deployments." lightbox="../../media/ai-services/endpoint/models-endpoints-ai-services-deployments.png":::
+ :::image type="content" source="../../media/ai-services/endpoint/models-endpoints-ai-services-deployments.png" alt-text="Screenshot of the models and endpoints page to view Azure AI services endpoints." lightbox="../../media/ai-services/endpoint/models-endpoints-ai-services-deployments.png":::
In this example, we see:
- Six Azure AI Services deployments (such as Azure AI Speech and Azure AI Language) via the default connection. These models were already available for use when you created the project.
@@ -151,7 +151,6 @@ There's no option to deploy Azure AI services models from the **Models + endpoin
However, you can deploy [fine-tuned Azure AI services models](#fine-tune-azure-ai-services-models). For example, you might want to deploy a custom speech model that you fine-tuned. In this case, you can deploy the model from the corresponding fine-tuning page.
-
## Related content
- [What are Azure AI services?](../../../ai-services/what-are-ai-services.md?context=/azure/ai-studio/context/context)
Summary
{
"modification_type": "minor update",
"modification_title": "接続方法に関するドキュメントの更新"
}
Explanation
このコードの変更は、connect-ai-services.md
というドキュメントの更新に関するもので、主に日付の修正と内容の微調整が行われています。具体的には、リリース日が2024年11月19日から2025年2月12日に変更され、いくつかの文言が明確化されています。たとえば、Azure AI サービスへの接続方法に関する説明がわかりやすくなるよう、文書のいくつかの部分が修正されました。また、いくつかの表現が、サービスを複数に接続するための指示が加えられています。これにより、ユーザーがドキュメントから得られる情報がより明瞭になり、適切なサービスへ効果的にアクセスできるよう援助しています。全体として、添削作業は15行にわたって行われ、その中で7行の追加と8行の削除が含まれています。
articles/ai-studio/ai-services/how-to/connect-azure-openai.md
Diff
@@ -9,7 +9,7 @@ ms.custom:
- build-2024
- ignite-2024
ms.topic: how-to
-ms.date: 11/19/2024
+ms.date: 2/12/2025
ms.reviewer: eur
ms.author: eur
author: eric-urban
@@ -102,7 +102,7 @@ Here are a few guides to help you get started with Azure OpenAI Service playgrou
- [Quickstart: Use GPT-4o in the real-time audio playground](../../../ai-services/openai/realtime-audio-quickstart.md?context=/azure/ai-studio/context/context)
- [Quickstart: Analyze images and video with GPT-4 for Vision in the playground](../../quickstarts/multimodal-vision.md)
-Each playground has different model requirements and capabilities. The supported regions will vary depending on the model. For more information about model availability per region, see the [Azure OpenAI Service models documentation](../../../ai-services/openai/concepts/models.md).
+Each playground has different model requirements and capabilities. The supported regions vary depending on the model. For more information about model availability per region, see the [Azure OpenAI Service models documentation](../../../ai-services/openai/concepts/models.md).
## Fine-tune Azure OpenAI models
Summary
{
"modification_type": "minor update",
"modification_title": "接続方法に関する日付と表現の修正"
}
Explanation
このコードの変更は、connect-azure-openai.md
というドキュメントの更新に関するもので、主にリリース日と文言の修正が行われています。具体的には、リリース日が2024年11月19日から2025年2月12日に修正され、文書内の表現がわずかに調整されています。特に、モデルのサポートされる地域についての説明文が少し整理され、「supported regions will vary depending on the model」という表現が「supported regions vary depending on the model」に改訂されています。これにより、文書の可読性と明瞭性が向上しています。全体として、この変更は4行の修正を伴い、そのうち2行が追加され、2行が削除されています。
articles/ai-studio/how-to/connections-add.md
Diff
@@ -9,7 +9,7 @@ ms.custom:
- build-2024
- ignite-2024
ms.topic: how-to
-ms.date: 11/19/2024
+ms.date: 02/12/2025
ms.reviewer: larryfr
ms.author: larryfr
author: Blackmist
@@ -36,7 +36,7 @@ Here's a table of some of the available connection types in Azure AI Foundry por
| Azure Content Safety | | Azure AI Content Safety is a service that detects potentially unsafe content in text, images, and videos. |
| Azure OpenAI || Azure OpenAI is a service that provides access to OpenAI's models including the GPT-4o, GPT-4o mini, GPT-4, GPT-4 Turbo with Vision, GPT-3.5-Turbo, DALLE-3 and Embeddings model series with the security and enterprise capabilities of Azure. |
| Serverless Model | ✓ | Serverless Model connections allow you to [serverless API deployment](deploy-models-serverless.md). |
-| Microsoft OneLake | | Microsoft OneLake provides open access to all of your Fabric items through Azure Data Lake Storage (ADLS) Gen2 APIs and SDKs.<br/><br/>In Azure AI Foundry portal you can set up a connection to your OneLake data using a OneLake URI. You can find the information that Azure AI Foundry requires to construct a __OneLake Artifact URL__ (workspace and item GUIDs) in the URL on the Fabric portal. For information about the URI syntax, see [Connecting to Microsoft OneLake](/fabric/onelake/onelake-access-api). |
+| Microsoft OneLake | | Microsoft OneLake provides open access to all of your Fabric items through Azure Data Lake Storage (ADLS) Gen2 APIs and SDKs.<br/><br/>In Azure AI Foundry portal, you can set up a connection to your OneLake data using a OneLake URI. You can find the information that Azure AI Foundry requires to construct a __OneLake Artifact URL__ (workspace and item GUIDs) in the URL on the Fabric portal. For information about the URI syntax, see [Connecting to Microsoft OneLake](/fabric/onelake/onelake-access-api). |
| API key || API Key connections handle authentication to your specified target on an individual basis. For example, you can use this connection with the SerpApi tool in prompt flow. |
| Custom || Custom connections allow you to securely store and access keys while storing related properties, such as targets and versions. Custom connections are useful when you have many targets that or cases where you wouldn't need a credential to access. LangChain scenarios are a good example where you would use custom service connections. Custom connections don't manage authentication, so you have to manage authentication on your own. |
@@ -58,7 +58,7 @@ Follow these steps to create a new connection that's only available for the curr
1. Browse for and select your Azure AI Search service from the list of available services and then select the type of __Authentication__ to use for the resource. Select __Add connection__.
> [!TIP]
- > Different connection types support different authentication methods. Using Microsoft Entra ID may require specific Azure role-based access permissions for your developers. For more information, visit [Role-based access control](../concepts/rbac-ai-studio.md#scenario-connections-using-microsoft-entra-id-authentication).
+ > Different connection types support different authentication methods. Using Microsoft Entra ID might require specific Azure role-based access permissions for your developers. For more information, visit [Role-based access control](../concepts/rbac-ai-studio.md#scenario-connections-using-microsoft-entra-id-authentication).
:::image type="content" source="../media/data-connections/connection-add-azure-ai-search-connect-entra-id.png" alt-text="Screenshot of the page to select the Azure AI Search service that you want to connect to." lightbox="../media/data-connections/connection-add-azure-ai-search-connect-entra-id.png":::
Summary
{
"modification_type": "minor update",
"modification_title": "接続方法に関する日付および文言の修正"
}
Explanation
このコードの変更は、connections-add.md
というドキュメントの更新に関するもので、主にリリース日と文言の修正が行われています。具体的には、リリース日が2024年11月19日から2025年2月12日に変更されました。また、文書内の幾つかの表現が調整されています。特に、「Using Microsoft Entra ID may require」という表現が「Using Microsoft Entra ID might require」に修正され、文言がわずかに柔らかくなっています。この変更により、内容がより包括的に受け取れるようになっています。全体として、6行の修正があり、その中で3行が追加され、3行が削除されています。
articles/ai-studio/how-to/create-azure-ai-resource.md
Diff
@@ -9,7 +9,7 @@ ms.custom:
- build-2024
- ignite-2024
ms.topic: how-to
-ms.date: 11/19/2024
+ms.date: 02/12/2025
ms.reviewer: deeikele
ms.author: larryfr
author: Blackmist
@@ -99,10 +99,10 @@ At hub creation, select between the networking isolation modes: **Public**, **Pr
At hub creation in the Azure portal, creation of associated Azure AI services, Storage account, Key vault (optional), Application insights (optional), and Container registry (optional) is given. These resources are found on the Resources tab during creation.
-To connect to Azure AI services (Azure OpenAI, Azure AI Search, and Azure AI Content Safety) or storage accounts in Azure AI Foundry portal, create a private endpoint in your virtual network. Ensure the public network access (PNA) flag is disabled when creating the private endpoint connection. For more about Azure AI services connections, follow documentation [here](../../ai-services/cognitive-services-virtual-networks.md). You can optionally bring your own (BYO) search, but this requires a private endpoint connection from your virtual network.
+To connect to Azure AI services (Azure OpenAI, Azure AI Search, and Azure AI Content Safety) or storage accounts in Azure AI Foundry portal, create a private endpoint in your virtual network. Ensure the public network access (PNA) flag is disabled when creating the private endpoint connection. For more about Azure AI services connections, see [Virtual networks for Azure AI Services](../../ai-services/cognitive-services-virtual-networks.md). You can optionally bring your own Azure AI Search, but it requires a private endpoint connection from your virtual network.
### Encryption
-Projects that use the same hub, share their encryption configuration. Encryption mode can be set only at the time of hub creation between Microsoft-managed keys and Customer-managed keys.
+Projects that use the same hub, share their encryption configuration. Encryption mode can be set only at the time of hub creation between Microsoft-managed keys and Customer-managed keys (CMK).
From the Azure portal view, navigate to the encryption tab, to find the encryption settings for your hub.
For hubs that use CMK encryption mode, you can update the encryption key to a new key version. This update operation is constrained to keys and key versions within the same Key Vault instance as the original key.
@@ -111,7 +111,7 @@ For hubs that use CMK encryption mode, you can update the encryption key to a ne
### Update Azure Application Insights and Azure Container Registry
-To use custom environments for Prompt Flow, you're required to configure an Azure Container Registry for your hub. To use Azure Application Insights for Prompt Flow deployments, a configured Azure Application Insights resource is required for your hub. Updating the workspace-attached Azure Container Registry or Application Insights resources may break lineage of previous jobs, deployed inference endpoints, or your ability to rerun earlier jobs in the workspace. After association with an Azure AI Foundry hub, Azure Container Registry and Application Insights resources cannot be disassociated (set to null).
+To use custom environments for Prompt Flow, you're required to configure an Azure Container Registry for your hub. To use Azure Application Insights for Prompt Flow deployments, a configured Azure Application Insights resource is required for your hub. Updating the workspace-attached Azure Container Registry or Application Insights resources might break lineage of previous jobs, deployed inference endpoints, or your ability to rerun earlier jobs in the workspace. After association with an Azure AI Foundry hub, Azure Container Registry and Application Insights resources can't be disassociated (set to null).
You can use the Azure portal, Azure SDK/CLI options, or the infrastructure-as-code templates to update both Azure Application Insights and Azure Container Registry for the hub.
@@ -152,15 +152,15 @@ az ml workspace update -n "myexamplehub" -g "{MY_RESOURCE_GROUP}" -a "APPLICATIO
### Choose how credentials are stored
-Select scenarios in Azure AI Foundry portal store credentials on your behalf. For example when you create a connection in Azure AI Foundry portal to access an Azure Storage account with stored account key, access Azure Container Registry with admin password, or when you create a compute instance with enabled SSH keys. No credentials are stored with connections when you choose Microsoft Entra ID identity-based authentication.
+Select scenarios in Azure AI Foundry portal store credentials on your behalf. For example, when you create a connection in Azure AI Foundry portal to access an Azure Storage account with stored account key, access Azure Container Registry with admin password, or when you create a compute instance with enabled SSH keys. No credentials are stored with connections when you choose Microsoft Entra ID identity-based authentication.
You can choose where credentials are stored:
-- **Your Azure Key Vault**: This requires you to manage your own Azure Key Vault instance and configure it per hub. It gives you additional control over secret lifecycle e.g. to set expiry policies. You can also share stored secrets with other applications in Azure.
+- **Your Azure Key Vault**: This requires you to manage your own Azure Key Vault instance and configure it per hub. It gives you more control over secret lifecycle, for example, to set expiry policies. You can also share stored secrets with other applications in Azure.
-- **Microsoft-managed credential store (preview)**: In this variant Microsoft manages an Azure Key Vault instance on your behalf per hub. No resource management is needed on your side and the vault does not show in your Azure subscription. Secret data lifecycle follows the resource lifecycle of your hubs and projects. For example, when a project's storage connection is deleted, its stored secret is deleted as well.
+- **Microsoft-managed credential store (preview)**: In this variant Microsoft manages an Azure Key Vault instance on your behalf per hub. No resource management is needed on your side and the vault doesn't show in your Azure subscription. Secret data lifecycle follows the resource lifecycle of your hubs and projects. For example, when a project's storage connection is deleted, its stored secret is deleted as well.
-After your hub is created, it is not possible to switch between Your Azure Key Vault and using a Microsoft-managed credential store.
+After your hub is created, it isn't possible to switch between Your Azure Key Vault and using a Microsoft-managed credential store.
## Delete an Azure AI Foundry hub
Summary
{
"modification_type": "minor update",
"modification_title": "Azure AIリソース作成に関する日付と文言の修正"
}
Explanation
このコードの変更は、create-azure-ai-resource.md
というドキュメントの更新に関するもので、主にリリース日と文言の調整が行われています。具体的には、リリース日が2024年11月19日から2025年2月12日に修正され、文書中のいくつかの文言が改善されています。特に、特定の用語やフレーズの使い方が整理され、情報が明確になるように調整されています。たとえば、「For more about Azure AI services connections, see [Virtual networks for Azure AI Services]」のように、リンクの表現がより適切なものに変更されています。また、文中のいくつかの「might」や「isn’t」の表記が修正され、文章全体の一貫性が向上しました。この変更は全体で16行に及び、それぞれ8行が追加され、8行が削除されています。
articles/ai-studio/how-to/create-manage-compute-session.md
Diff
@@ -9,7 +9,7 @@ ms.custom:
- build-2024
- ignite-2024
ms.topic: how-to
-ms.date: 11/07/2024
+ms.date: 02/12/2025
ms.reviewer: lochen
ms.author: sgilley
author: sdgilley
@@ -80,7 +80,7 @@ To manage a compute session, select the **Compute session running** on the top t
- **Install packages from requirements.txt** Opens `requirements.txt` in prompt flow UI so you can add packages.
- **View installed packages** shows the packages that are installed in the compute session. It includes the packages baked into base image and packages specified in the `requirements.txt` file in the flow folder.
- **Reset compute session** deletes the current compute session and creates a new one with the same environment. If you encounter a package conflict, you can try this option.
-- **Stop compute session** deletes the current compute session. If there's no active compute session on an underlying serverless compute, the compute resource is also deleted. If the compute session is on a compute instance, stopping the session will allow the instance to become idle.
+- **Stop compute session** deletes the current compute session. If there's no active compute session on an underlying serverless compute, the compute resource is also deleted. If the compute session is on a compute instance, stopping the session allows the instance to become idle.
:::image type="content" source="../media/prompt-flow/how-to-create-manage-compute-session/compute-session-create-automatic-actions.png" alt-text="Screenshot of actions for a compute session on a flow page." lightbox = "../media/prompt-flow/how-to-create-manage-compute-session/compute-session-create-automatic-actions.png":::
@@ -94,7 +94,7 @@ You can customize the environment that you use to run this flow by adding packag
> [!NOTE]
> You can change the location and even the file name of `requirements.txt`, but be sure to also change it in the `flow.dag.yaml` file in the flow folder.
>
-> Don't pin the version of `promptflow` and `promptflow-tools` in `requirements.txt`, because they are already included in the compute session base image.
+> Don't pin the version of `promptflow` and `promptflow-tools` in `requirements.txt`, because they're already included in the compute session base image.
### Add packages in a private feed in Azure DevOps
@@ -140,7 +140,7 @@ By default, we use the latest prompt flow image as the base image. If you want t
If you previously created a compute instance runtime, switch it to a compute session by using the following steps:
-- Prepare your `requirements.txt` file in the flow folder. See [Manage a compute session](#manage-a-compute-session) for more information.
+- Prepare your `requirements.txt` file in the flow folder. For more information, see [Manage a compute session](#manage-a-compute-session).
- If you created a custom environment, get the image from the environment detail page, and specify it in the `flow.dag.yaml` file in the flow folder. To learn more, see [Change the base image](#change-the-base-image). Make sure you have `acr pull` permission for the image.
- You can continue to use the existing compute instance if you would like to manually manage the lifecycle.
Summary
{
"modification_type": "minor update",
"modification_title": "計算セッションの作成と管理に関する日付と文言の修正"
}
Explanation
このコードの変更は、create-manage-compute-session.md
というドキュメントの更新に関するもので、主にリリース日と文言の調整が行われています。具体的には、リリース日が2024年11月7日から2025年2月12日に変更されています。また、文書内のいくつかの表現も修正されており、特に「stopping the session will allow the instance to become idle」が「stopping the session allows the instance to become idle」に修正されており、文がより明確になっています。さらに、ノートのセクションで「they are already included」が「they’re already included」となり、文がよりスムーズになっています。全体として、8行の修正があり、その中で4行が追加され、4行が削除されています。
articles/ai-studio/how-to/deploy-models-deepseek.md
Diff
@@ -1143,7 +1143,7 @@ Quota is managed per deployment. Each deployment has a rate limit of 200,000 tok
## Related content
-
+* [Explore DeepSeek-related Azure samples in various languages](https://github.com/azure-samples/deepseek)
* [Azure AI Model Inference API](../reference/reference-model-inference-api.md)
* [Deploy models as serverless APIs](deploy-models-serverless.md)
* [Consume serverless API endpoints from a different Azure AI Studio project or hub](deploy-models-serverless-connect.md)
Summary
{
"modification_type": "minor update",
"modification_title": "DeepSeekモデルデプロイメントに関連するリンクの追加"
}
Explanation
このコードの変更は、deploy-models-deepseek.md
というドキュメントに関するもので、主に関連コンテンツのセクションにリンクが追加されています。具体的には、DeepSeek関連のAzureサンプルを様々な言語で探索できるリンクが追加され、利用者が実際のサンプルを参照しやすくなっています。これにより、リソースの明確さと有用性が向上し、読者にとっての価値が増しています。この変更により全体で2行の修正があり、1行が追加され、1行が削除されています。
articles/ai-studio/includes/deploy-model.md
Diff
@@ -6,7 +6,7 @@ ms.reviewer: sgilley
ms.author: sgilley
ms.service: azure-ai-foundry
ms.topic: include
-ms.date: 10/29/2024
+ms.date: 02/12/2025
ms.custom: include, ignite-2024
---
@@ -19,7 +19,7 @@ To work with a model, you first deploy it into a project. If you don't yet have
:::image type="content" source="../media/tutorials/chat/home-page.png" alt-text="Screenshot of the home page if with no projects." lightbox="../media/tutorials/chat/home-page.png":::
- * If you have projects but aren't in one, select the project you wish to use, then select **Model catalog** from the left navigation pane. Or, you can select **Model catalog and benchmarks** at the bottom of the screen.
+ * If you have projects but aren't in one, select the project you wish to use, then select **Model catalog** from the left navigation pane.
* If you are in a project, select **Model catalog** from the left navigation pane.
1. Select the **gpt-4o-mini** model from the list of models. You can use the search bar to find it.
@@ -38,4 +38,4 @@ To work with a model, you first deploy it into a project. If you don't yet have
1. Provide a name for your project.
1. Select **Create a project**.
-1. Leave the default **Deployment name**. Select **Connect and deploy**.
+1. Leave the default **Deployment name**. Select **Deploy**.
Summary
{
"modification_type": "minor update",
"modification_title": "デプロイメント日付の更新と文言の修正"
}
Explanation
このコードの変更は、deploy-model.md
というドキュメントに対するもので、主にデプロイメントの日付の更新といくつかの表現の修正が行われています。具体的には、文書内の日付が2024年10月29日から2025年2月12日に変更されました。また、モデルカタログに関する説明の一部が簡略化されています。具体的には、「Model catalog and benchmarks」の部分が削除され、よりシンプルな表現になっています。この更新によって全体で6行の修正があり、3行が追加され、3行が削除されています。これにより、内容が明瞭になり、最新の情報を反映した形となっています。
articles/ai-studio/media/tutorials/chat/chat-without-data.png
Summary
{
"modification_type": "minor update",
"modification_title": "チャットチュートリアル用画像の改訂"
}
Explanation
このコードの変更は、chat-without-data.png
という画像ファイルに関するもので、実際には内容の追加や削除は行われていませんが、ファイル自体が改訂されたことを示しています。変更ステータスに「modified」と記載されていることから、画像が新しいバージョンに更新された可能性があります。この変更はビジュアルコンテンツに関連しており、使用される文書やチュートリアルの品質を向上させるためのものです。特に、具体的な追加や削除がないため、まずは更新内容を確認する必要があります。
articles/ai-studio/media/tutorials/chat/deploy-model.png
Summary
{
"modification_type": "minor update",
"modification_title": "デプロイモデルチュートリアル用画像の改訂"
}
Explanation
このコードの変更は、deploy-model.png
という画像ファイルに関連しています。変更ステータスは「modified」となっており、具体的には内容の追加や削除は行われていないものの、画像自体が更新されたことを示しています。この更新により、ビジュアルコンテンツが最新の情報を反映している可能性があります。特に、改訂された画像はチャット関連のモデルデプロイメントに関するチュートリアルで使用され、視覚的な理解を助けるために重要です。詳細な変更内容を確認するには、実際の画像の差分をレビューする必要があります。
articles/ai-studio/quickstarts/get-started-code.md
Diff
@@ -6,7 +6,7 @@ manager: scottpolly
ms.service: azure-ai-foundry
ms.custom: build-2024, devx-track-azurecli, devx-track-python, ignite-2024
ms.topic: how-to
-ms.date: 11/07/2024
+ms.date: 02/12/2025
ms.reviewer: dantaylo
ms.author: sgilley
author: sdgilley
Summary
{
"modification_type": "minor update",
"modification_title": "クイックスタートコードの更新"
}
Explanation
このコードの変更は、get-started-code.md
というMarkdownファイルにおけるもので、特にファイル内の日付情報が更新されています。具体的には、元の日付「11/07/2024」が「02/12/2025」に変更されました。この変更は、コンテンツの有効性を保つためのものであり、情報の正確性を確保するために重要です。その他のメタデータには変更がないため、主に日付の更新に焦点を当てた修正となります。このファイルは、Azure AI Foundryに関するクイックスタートガイドとして利用されるため、正確な日付表示が不可欠です。変更内容は少ないですが、今後の利用者に対して適切な情報を提供するために重要な作業です。
articles/ai-studio/quickstarts/get-started-playground.md
Diff
@@ -8,7 +8,7 @@ ms.custom:
- build-2024
- ignite-2024
ms.topic: quickstart
-ms.date: 10/22/2024
+ms.date: 02/12/2025
ms.reviewer: zuramir
ms.author: sgilley
author: sdgilley
@@ -38,7 +38,7 @@ If you don't have an Azure subscription, <a href="https://azure.microsoft.com/fr
7. Once the model is deployed, select **Open in playground** to test your model.
-You're now in a project, with a deployed model. You can use the chat playground to interact with your model.
+You're now in a project, with a deployed model. You can use the chat playground to interact with your model.
For more information about deploying models, see [how to deploy models](../how-to/deploy-models-openai.md).
Summary
{
"modification_type": "minor update",
"modification_title": "プレイグラウンドクイックスタートの更新"
}
Explanation
このコードの変更は、get-started-playground.md
というMarkdownファイルに対するもので、主に日付の更新と文言の微調整が行われました。具体的には、元の日付「10/22/2024」が「02/12/2025」に変更され、内容の正確性を維持するための更新が行われています。また、文中の「You can use the chat playground to interact with your model.」において、文の表記方法が若干修正されています(不要な空白を削除)。これにより、より洗練された表現になったと言えます。
全体として、これらの変更はプレイグラウンドのクイックスタートガイドの情報をアップデートし、最新の状態に保つためのものです。この文書は、ユーザーがAzureでモデルをデプロイし、プレイグラウンドを使用してインタラクションする手順を理解するために重要です。このようなマイナーな更新も、ユーザー体験を向上させるために不可欠です。
articles/ai-studio/quickstarts/hear-speak-playground.md
Diff
@@ -9,7 +9,7 @@ ms.custom:
- build-2024
- ignite-2024
ms.topic: quickstart
-ms.date: 11/19/2024
+ms.date: 2/12/2025
ms.reviewer: eur
ms.author: eur
author: eric-urban
@@ -36,7 +36,7 @@ The speech to text and text to speech features can be used together or separatel
Before you can start a chat session, you need to configure the chat playground to use the speech to text and text to speech features.
-1. Sign in to [Azure AI Foundry](https://ai.azure.com).
+1. Sign in to the [Azure AI Foundry portal](https://ai.azure.com).
1. Go to your Azure AI Foundry project. If you need to create a project, see [Create an Azure AI Foundry project](../how-to/create-projects.md).
1. Select **Playgrounds** from the left pane and then select a playground to use. In this example, select **Try the chat playground**.
1. Select your deployed chat model from the **Deployment** dropdown.
@@ -48,9 +48,9 @@ Before you can start a chat session, you need to configure the chat playground t
:::image type="content" source="../media/quickstarts/hear-speak/playground-settings-select.png" alt-text="Screenshot of the chat playground with options to get to the chat capabilities settings." lightbox="../media/quickstarts/hear-speak/playground-settings-select.png":::
> [!NOTE]
- > You should also see the options to select the microphone or speaker buttons. If you select either of these buttons, but haven't yet enabled speech to text or text to speech, you are prompted to enable them in **Chat capabilities**.
+ > You should also see the options to select the microphone or speaker buttons. If you select either of these buttons, but didn't yet enable speech to text or text to speech, you're prompted to enable them in **Chat capabilities**.
-1. On the **Chat capabilities** page, select the box to acknowledge that usage of the speech feature will incur additional costs. For more information, see [Azure AI Speech pricing](https://azure.microsoft.com/pricing/details/cognitive-services/speech-services/).
+1. On the **Chat capabilities** page, select the box to acknowledge that usage of the speech feature incurs extra costs. For more information, see [Azure AI Speech pricing](https://azure.microsoft.com/pricing/details/cognitive-services/speech-services/).
1. Select **Enable speech to text** and **Enable text to speech**.
@@ -67,7 +67,7 @@ Before you can start a chat session, you need to configure the chat playground t
In this chat session, you use both speech to text and text to speech. You use the speech to text feature to speak to the assistant, and the text to speech feature to hear the assistant's response.
-1. Complete the steps in the [Configure the playground](#configure-the-chat-playground) section if you haven't already done so. To complete this quickstart you need to enable the speech to text and text to speech features.
+1. Complete the steps in the [Configure the playground](#configure-the-chat-playground) section. To complete this quickstart, you need to enable the speech to text and text to speech features.
1. Select the microphone button and speak to the assistant. For example, you can say "Do you know where I can get an Xbox".
:::image type="content" source="../media/quickstarts/hear-speak/chat-session-speaking.png" alt-text="Screenshot of the chat session with the enabled microphone icon and send button highlighted." lightbox="../media/quickstarts/hear-speak/chat-session-speaking.png":::
@@ -76,7 +76,7 @@ In this chat session, you use both speech to text and text to speech. You use th
1. Select the send button (right arrow) to send your message to the assistant. The assistant's response is displayed in the chat session pane.
> [!NOTE]
- > If the speaker button is turned on, you'll hear the assistant's response. If the speaker button is turned off, you won't hear the assistant's response, but the response will still be displayed in the chat session pane.
+ > If the speaker button is turned on, you hear the assistant's response. If the speaker button is turned off, you don't hear the assistant's response, but the response is still displayed in the chat session pane.
1. You can change the system prompt to change the assistant's response format or style.
Summary
{
"modification_type": "minor update",
"modification_title": "ヒア・スピーク・プレイグラウンドの更新"
}
Explanation
このコードの変更は、hear-speak-playground.md
というMarkdownファイルに対するもので、主に日付の更新と文の改良が行われています。元の日付「11/19/2024」が「2/12/2025」に変更され、情報の新しさを保つために更新されています。
文中では、いくつかの表現が洗練され、より明確な指示となるように改訂されています。たとえば、「sign in to Azure AI Foundry」という表現は「sign in to the Azure AI Foundry portal」と具体的に修正され、ユーザーがどこにサインインするのかが明確に示されています。また、注意書きの形式やコストに関する案内文も改善され、理解しやすくなっています。
これらの変更は、プレイグラウンドの使用をより容易にし、ユーザーが必要なステップを明確に理解できるようにするためのものであり、全体としてクイックスタートガイドの質を向上させることを目的としています。ユーザーがAIアシスタントとのインタラクションを円滑に行うための具体的な手順を示す重要な文書です。
articles/ai-studio/toc.yml
Diff
@@ -405,7 +405,7 @@ items:
- name: Built-in policy to allow specific models
href: how-to/built-in-policy-model-deployment.md
- name: Custom policy to allow specific models
- href: how-to/custom-policy-model-deployment.md
+ href: ../ai-foundry/model-inference/how-to/configure-deployment-policies.md?context=/azure/ai-studio/context/context
- name: Vulnerability management
href: concepts/vulnerability-management.md
- name: Disaster recovery
Summary
{
"modification_type": "minor update",
"modification_title": "TOCファイルの更新"
}
Explanation
このコードの変更は、toc.yml
というファイルに対するもので、特定のモデルのデプロイメントポリシーに関連するリンクの更新が行われています。具体的には、「Custom policy to allow specific models」という項目のリンクが、古いリンク「how-to/custom-policy-model-deployment.md」から新しいリンク「../ai-foundry/model-inference/how-to/configure-deployment-policies.md?context=/azure/ai-studio/context/context」に変更されています。
この変更は、リソースの関連情報をより適切に反映させ、ユーザーが最新のガイドラインや手順にアクセスできるようにするためのものです。また、全体のナビゲーションやドキュメントの整合性を保つためにも重要です。
このようなマイナーな更新は、特にドキュメントが大規模である場合に、ユーザーエクスペリエンスを向上させるために不可欠な要素です。進行中のプロジェクトにおいて、常に正確な情報を提供することは重要な作業です。
articles/ai-studio/tutorials/copilot-sdk-build-rag.md
Diff
@@ -5,7 +5,7 @@ description: Learn how to build a RAG-based chat app using the Azure AI Foundry
manager: scottpolly
ms.service: azure-ai-foundry
ms.topic: tutorial
-ms.date: 12/18/2024
+ms.date: 02/12/2025
ms.reviewer: lebaro
ms.author: sgilley
author: sdgilley
@@ -78,11 +78,6 @@ The search index is used to store vectorized data from the embeddings model. The
python create_search_index.py
```
-1. Once the script is run, you can view your newly created index in the **Data + indexes** page of your Azure AI Foundry project. For more information, see [How to build and consume vector indexes in Azure AI Foundry portal](../how-to/index-add.md).
-
-1. If you run the script again with the same index name, it creates a new version of the same index.
-
-
## <a name="get-documents"></a> Get product documents
Next, you create a script to get product documents from the search index. The script queries the search index for documents that match a user's question.
@@ -176,6 +171,7 @@ To enable logging of telemetry to your project:
python chat_with_products.py --query "I need a new tent for 4 people, what would you recommend?" --enable-telemetry
```
+Follow the link in the console output to see the telemetry data in your Application Insights resource. If it doesn't appear right away, wait a few minutes and select **Refresh** in the toolbar.
## Clean up resources
Summary
{
"modification_type": "minor update",
"modification_title": "コパイロットSDKによるRAG構築チュートリアルの更新"
}
Explanation
このコードの変更は、copilot-sdk-build-rag.md
というチュートリアル文書に対するもので、主に日付の更新といくつかの文の削除・追加が行われています。具体的には、文書の日付が「12/18/2024」から「02/12/2025」に変更され、新しい情報を反映させています。
また、内容の一部が削除され、簡潔に整理される一方で、コマンドの実行後に得られる結果の確認方法についての説明が追加されました。具体的には、コンソール出力に表示されたリンクを使ってアプリケーションインサイトリソースでテレメトリデータを確認する手順が明記されています。これにより、ユーザーはデータをより追跡しやすくなります。
このような変更は、テンプレートや手順を常に最新の状態に保ち、ユーザーが必要な情報を得やすくするために重要です。特にチュートリアルの文書では、ユーザーが経験する可能性のある問題点に関する情報を明確に示すことが、より良い学習体験につながります。
articles/ai-studio/tutorials/copilot-sdk-create-resources.md
Diff
@@ -7,7 +7,7 @@ ms.service: azure-ai-foundry
ms.custom:
- ignite-2024
ms.topic: tutorial
-ms.date: 12/18/2024
+ms.date: 02/12/2025
ms.reviewer: lebaro
ms.author: sgilley
author: sdgilley
Summary
{
"modification_type": "minor update",
"modification_title": "コパイロットSDKリソース作成チュートリアルの日付更新"
}
Explanation
この変更は、copilot-sdk-create-resources.md
というチュートリアルファイルに対するもので、主に日付の更新が行われています。具体的には、文書の日付が「12/18/2024」から「02/12/2025」に変更されており、これによりチュートリアルの最新性を維持しています。
日付の更新は、ユーザーがこのチュートリアルを利用する際に、情報の新しさを確認できる重要な要素です。特に技術的な文書においては、新しい手法や機能が頻繁に登場するため、最新の日付に合わせて内容を調整することが非常に重要です。このようなマイナーな変更でも、ユーザーにとっては有益な情報を提供することにつながります。
articles/ai-studio/tutorials/copilot-sdk-evaluate.md
Diff
@@ -85,7 +85,7 @@ In Part 1 of this tutorial series, you created an **.env** file that specifies t
1. In your project in Azure AI Foundry portal, select **Models + endpoints**.
1. Select **gpt-4o-mini**.
1. Select **Edit**.
-1. If you have quota to increase the **Tokens per Minute Rate Limit**, try increasing it to 30.
+1. If you have quota to increase the **Tokens per Minute Rate Limit**, try increasing it to 30 or above.
1. Select **Save and close**.
### Run the evaluation script
@@ -108,6 +108,8 @@ In Part 1 of this tutorial series, you created an **.env** file that specifies t
python evaluate.py
```
+Expect the evaluation to take a few minutes to complete.
+
### Interpret the evaluation output
In the console output, you see an answer for each question, followed by a table with summarized metrics. (You might see different columns in your output.)
@@ -160,7 +162,7 @@ For more information about evaluation results in Azure AI Foundry portal, see [H
Notice that the responses are not well grounded. In many cases, the model replies with a question rather than an answer. This is a result of the prompt template instructions.
-* In your **assets/grounded_chat.prompty** file, find the sentence "If the question is related to outdoor/camping gear and clothing but vague, ask for clarifying questions instead of referencing documents."
+* In your **assets/grounded_chat.prompty** file, find the sentence "If the question is not related to outdoor/camping gear and clothing, just say 'Sorry, I only can answer queries related to outdoor/camping gear and clothing. So, how can I help?'"
* Change the sentence to "If the question is related to outdoor/camping gear and clothing but vague, try to answer based on the reference documents, then ask for clarifying questions."
* Save the file and re-run the evaluation script.
Summary
{
"modification_type": "minor update",
"modification_title": "コパイロットSDK評価チュートリアルの内容更新"
}
Explanation
この変更は、copilot-sdk-evaluate.md
というチュートリアルに対するもので、いくつかの文が更新され、内容が明確化されています。主な変更点は以下の通りです。
Tokens per Minute Rate Limitの説明の具体化: 「30」への増加に加え、「またはそれ以上」という具体的な指示が追加されました。この変更により、ユーザーがより柔軟に設定を調整できることが強調されています。
評価スクリプトの実行時間に関する注意: 評価に数分かかることを期待するようにという文が追加されました。これによって、ユーザーは処理時間についての期待を持てるようになります。
プロンプトテンプレートの修正指示の改善: プロンプトの修正に関する指示が更新され、より明確で正確な表現が提供されています。特に、質問がアウトドアやキャンプ用品に無関係な場合の応答の仕方について具体的な例が示されています。
これらの変更は、ユーザーがチュートリアルを理解しやすくし、より良い体験を得られるようにすることを目的としています。特に技術的なチュートリアルでは、詳細で明確な指示がユーザーの成功に直結するため、このようなマイナーな更新は重要です。