View Diff on GitHub
# ハイライト
この一連の変更は、主に画像ファイルの削除、新しいドキュメントの追加、それに伴うドキュメントの修正に焦点を当てています。新しい機能としては、Semantic Kernelを利用した開発に関する新しいドキュメントの追加、TOCの更新などがあります。画像の削除が多く見られますが、それぞれの背景にはコンテンツの整理や新しい情報への更新が関連しています。
新しい機能
- Semantic KernelとAzure AI Foundryを利用したアプリケーション開発に関する新しいドキュメントが追加されました。これには、具体的な使用手順やサンプルコードが含まれています。
ブレイキングチェンジ
- 特に大規模なブレイキングチェンジは見られませんが、多くの画像が削除されており、それにより一部のドキュメントで視覚的な情報が欠落する可能性があります。
その他の更新
- 各種ドキュメントにおける細かな文言変更や情報の更新。
- Azure Marketplace関連の表記の一貫性向上や、プロジェクト接続情報の整理。
- AI推論SDKの計装を有効にする手順の追加。
- TOCの更新、新しいチュートリアルの追加とリンク修正。
インサイト
今回の変更では、主に次のポイントが浮き彫りになっています。まず、第1に、Semantic Kernelを活用した開発ドキュメントの追加は、ユーザーにとって新たな開発環境や手法を学ぶための重要なリソースとなります。この文書には詳細な手順やサンプルコードが含まれており、開発者がAzure上で効率的にアプリケーションを構築するためのガイドラインが提供されています。
一方、リポジトリから多数の画像が削除されました。これは一見、内容の削除とも受け取られますが、背景としてはドキュメントの整理や新しい情報提供の準備が挙げられます。具体的な見通しは示されていないものの、将来的にはこの欠落した情報を補完するための新たなビジュアルリソースが追加される可能性があります。
さらに、AI推論SDKに関する新しいコードスニペットの追加により、開発者はAzure Monitorを活用してログの監視やデバッグを効率的に行えるようになります。これにより、SDKの使用がより実用的で効果的なものとなり、開発のパフォーマンスを向上させるきっかけとなるでしょう。
最後に、TOCの更新は、ユーザーが必要な情報に迅速にアクセスできるようにするための重要な作業です。これにより、ドキュメント全体のナビゲーションが向上し、情報構造がより整理されたものになります。全体として、これらの変更は、ドキュメントの整合性と実用性を高めることを目的としており、特に開発者やエンジニアリングチームにとって有益であると期待されます。
Summary Table
Modified Contents
articles/ai-services/language-service/question-answering/media/question-answering/chat-playground.png
Summary
{
"modification_type": "minor update",
"modification_title": "チャットプレイグラウンド画像の削除"
}
Explanation
この変更は、AIサービスの言語サービスに関連する「質問応答」セクションから、チャットプレイグラウンドの画像ファイル(chat-playground.png)を削除したものです。この削除は、ファイルの追加や他の変更は伴わず、単に画像がリポジトリから除かれています。ユーザーには、この変更によって関連情報が失われる可能性があるため、注意が必要です。画像の詳細は、削除されたファイルに関連するURLからアクセスして確認することができます。
articles/ai-studio/concepts/evaluation-approach-gen-ai.md
Diff
@@ -38,7 +38,7 @@ Key considerations at this stage might include:
- **Bias and ethical considerations**: Does the model produce any outputs that might perpetuate or promote harmful stereotypes?
- **Risk and safety**: Are there any risks of the model generating unsafe or malicious content?
-You can explore [Azure AI Foundry benchmarks](./model-benchmarks.md)to evaluate and compare models on publicly available datasets, while also regenerating benchmark results on your own data. Alternatively, you can evaluate one of many base generative AI models via Azure AI Evaluation SDK as demonstrated, see [Evaluate model endpoints sample](https://github.com/Azure-Samples/azureai-samples/blob/main/scenarios/evaluate/evaluate_endpoints/evaluate_endpoints.ipynb).
+You can explore [Azure AI Foundry benchmarks](./model-benchmarks.md)to evaluate and compare models on publicly available datasets, while also regenerating benchmark results on your own data. Alternatively, you can evaluate one of many base generative AI models via Azure AI Evaluation SDK as demonstrated, see [Evaluate model endpoints sample](https://github.com/Azure-Samples/azureai-samples/blob/main/scenarios/evaluate/Supported_Evaluation_Targets/Evaluate_Base_Model_Endpoint/Evaluate_Base_Model_Endpoint.ipynb).
## Pre-production evaluation
Summary
{
"modification_type": "minor update",
"modification_title": "評価アプローチに関するドキュメントの修正"
}
Explanation
この変更は、AIスタジオの「評価アプローチ」に関するドキュメント(evaluation-approach-gen-ai.md)の内容を修正したものです。具体的には、1行が削除され、1行が追加されており、合計で2つの変更が行われています。主な変更点は、Azure AI Foundryのベンチマークに関するリンクが修正され、評価対象モデルのエンドポイントを示すサンプルのリンクが更新されています。この修正は、文書の正確性や参照の有効性を向上させるためのものです。ユーザーは、最新情報に基づいてモデルを評価できるようになります。
articles/ai-studio/how-to/deploy-models-cohere-rerank.md
Diff
@@ -59,7 +59,7 @@ Rerank multilingual performs well on multilingual benchmarks such as Miracl.
Certain models in the model catalog can be deployed as a serverless API with pay-as-you-go billing. This kind of deployment provides a way to consume models as an API without hosting them on your subscription, while keeping the enterprise security and compliance that organizations need. This deployment option doesn't require quota from your subscription.
-You can deploy the previously mentioned Cohere models as a service with pay-as-you-go billing. Cohere offers these models through the Microsoft Azure Marketplace and can change or update the terms of use and pricing of these models.
+You can deploy the previously mentioned Cohere models as a service with pay-as-you-go billing. Cohere offers these models through Microsoft Azure Marketplace and can change or update the terms of use and pricing of these models.
### Prerequisites
@@ -95,7 +95,7 @@ To create a deployment:
1. Select the **Subscribe and Deploy** button. If this is your first time deploying the model in the project, you have to subscribe your project for the particular offering.
> [!NOTE]
- > This step requires that your account has the **Azure AI Developer role** permissions on the resource group, as listed in the prerequisites. Models that are offered by non-Microsoft providers (for example, Cohere models) are billed through the Azure Marketplace. For such models, you're required to subscribe your project to the particular model offering. Each project has its own subscription to the particular Azure Marketplace offering of the model, which allows you to control and monitor spending. Currently, you can have only one deployment for each model within a project.
+ > This step requires that your account has the **Azure AI Developer role** permissions on the resource group, as listed in the prerequisites. Models that are offered by non-Microsoft providers (for example, Cohere models) are billed through Azure Marketplace. For such models, you're required to subscribe your project to the particular model offering. Each project has its own subscription to the particular Azure Marketplace offering of the model, which allows you to control and monitor spending. Currently, you can have only one deployment for each model within a project.
1. Once you subscribe the project for the particular Azure Marketplace offering, subsequent deployments of the _same_ offering in the _same_ project don't require subscribing again. If this scenario applies to you, there's a **Continue to deploy** option to select.
@@ -237,11 +237,11 @@ The `results` object is a dictionary with the following fields:
Quota is managed per deployment. Each deployment has a rate limit of 200,000 tokens per minute and 1,000 API requests per minute. However, we currently limit one deployment per model per project. Contact Microsoft Azure Support if the current rate limits aren't sufficient for your scenarios.
-Cohere models deployed as serverless APIs with pay-as-you-go billing are offered by Cohere through the Azure Marketplace and integrated with Azure AI Foundry for use. You can find the Azure Marketplace pricing when deploying the model.
+Cohere models deployed as serverless APIs with pay-as-you-go billing are offered by Cohere through Azure Marketplace and integrated with Azure AI Foundry for use. You can find Azure Marketplace pricing when deploying the model.
-Each time a project subscribes to a given offer from the Azure Marketplace, a new resource is created to track the costs associated with its consumption. The same resource is used to track costs associated with inference; however, multiple meters are available to track each scenario independently.
+Each time a project subscribes to a given offer from Azure Marketplace, a new resource is created to track the costs associated with its consumption. The same resource is used to track costs associated with inference; however, multiple meters are available to track each scenario independently.
-For more information on how to track costs, see [monitor costs for models offered throughout the Azure Marketplace](./costs-plan-manage.md#monitor-costs-for-models-offered-through-the-azure-marketplace).
+For more information on how to track costs, see [monitor costs for models offered throughout Azure Marketplace](./costs-plan-manage.md#monitor-costs-for-models-offered-through-the-azure-marketplace).
Summary
{
"modification_type": "minor update",
"modification_title": "Cohereモデルのデプロイに関するドキュメントの修正"
}
Explanation
この変更は、Cohereモデルのデプロイに関するドキュメント(deploy-models-cohere-rerank.md)の内容を修正したものです。具体的には、5行が追加され、5行が削除された結果、合計で10箇所の変更が行われました。主な修正点は、Azure Marketplaceに関連する表記の一貫性を向上させるための文言の調整です。これにより、文の流れがよりスムーズになり、情報が明確に伝わるようになります。この更新は、ユーザーがCohereのサービスを利用する際に必要な情報をより理解しやすくすることを目的としています。
articles/ai-studio/how-to/deploy-models-timegen-1.md
Diff
@@ -5,7 +5,7 @@ description: Learn how to deploy TimeGEN-1 with Azure AI Foundry.
manager: scottpolly
ms.service: azure-ai-studio
ms.topic: how-to
-ms.date: 5/21/2024
+ms.date: 12/16/2024
ms.reviewer: kritifaujdar
reviewer: fkriti
ms.author: mopeakande
@@ -28,23 +28,15 @@ The Nixtla TimeGEN-1 is a generative, pretrained forecasting and anomaly detecti
Certain models in the model catalog can be deployed as a serverless API with pay-as-you-go billing. This kind of deployment provides a way to consume models as an API without hosting them on your subscription, while keeping the enterprise security and compliance that organizations need. This deployment option doesn't require quota from your subscription.
-You can deploy TimeGEN-1 as a serverless API with pay-as-you-go billing. Nixtla offers TimeGEN-1 through the Microsoft Azure Marketplace. Nixtla can change or update the terms of use and pricing of this model.
+You can deploy TimeGEN-1 as a serverless API with pay-as-you-go billing. Nixtla offers TimeGEN-1 through Microsoft Azure Marketplace. Nixtla can change or update the terms of use and pricing of this model.
### Prerequisites
- An Azure subscription with a valid payment method. Free or trial Azure subscriptions don't work. If you don't have an Azure subscription, create a [paid Azure account](https://azure.microsoft.com/pricing/purchase-options/pay-as-you-go) to begin.
-- An [Azure AI Foundry project](../how-to/create-projects.md). The serverless API model deployment offering for TimeGEN-1 is only available with projects created in these regions:
- > [!div class="checklist"]
- > * East US
- > * East US 2
- > * North Central US
- > * South Central US
- > * West US
- > * West US 3
- > * Sweden Central
+- An [Azure AI Foundry hub](../how-to/create-azure-ai-resource.md). The serverless API model deployment offering for Nixtla's TimeGEN-1 model is only available with hubs created in specific regions. For a list of these regions, see [Region availability for models in serverless API endpoints](deploy-models-serverless-availability.md#nixtla-models).
- For a list of regions that are available for each of the models supporting serverless API endpoint deployments, see [Region availability for models in serverless API endpoints](deploy-models-serverless-availability.md).
+- An [Azure AI Foundry project](../how-to/create-projects.md).
- Azure role-based access controls (Azure RBAC) are used to grant access to operations in Azure AI Foundry portal. To perform the steps in this article, your user account must be assigned the __Azure AI Developer role__ on the resource group. For more information on permissions, visit [Role-based access control in Azure AI Foundry portal](../concepts/rbac-ai-studio.md).
@@ -89,20 +81,26 @@ These steps demonstrate the deployment of TimeGEN-1. To create a deployment:
[!INCLUDE [open-catalog](../includes/open-catalog.md)]
-4. Search for and select **TimeGEN-1** to open its Details page.
+4. Select the model card of the model you want to deploy. In this article, you select **TimeGEN-1** to open the Model Details page.
+
1. Select **Deploy** to open a serverless API deployment window for the model.
-1. Alternatively, you can initiate a deployment by starting from the **Models + endpoints** page in AI Foundry portal.
- 1. From the left navigation pane of your project, select **My assets** > **Models + endpoints**.
+1. Alternatively, you can initiate a deployment from your project in the AI Foundry portal as follows:
+
+ 1. From the left sidebar of your project, select **Models + Endpoints**.
1. Select **+ Deploy model** > **Deploy base model**.
- 1. Search for and select **TimeGEN-1**. to open the Model's Details page.
+ 1. Search for and select **TimeGEN-1** to open the Model Details page.
1. Select **Confirm** to open a serverless API deployment window for the model.
-1. Your current project is specified for the deployment. To successfully deploy the TimeGEN-1 model, your project must be in one of the regions listed in the [Prerequisites](#prerequisites) section.
-1. In the deployment wizard, select the link to **Azure Marketplace Terms**, to learn more about the terms of use.
+
+1. In the deployment wizard, select the link to **Azure Marketplace Terms** to learn more about the terms of use.
1. Select the **Pricing and terms** tab to learn about pricing for the selected model.
-1. Select the **Subscribe and Deploy** button. If this is your first time deploying the model in the project, you have to subscribe your project for the particular offering. This step requires that your account has the **Azure AI Developer role** permissions on the resource group, as listed in the prerequisites. Each project has its own subscription to the particular Azure Marketplace offering of the model, which allows you to control and monitor spending. Currently, you can have only one deployment for each model within a project.
+1. Select the **Subscribe and Deploy** button. If this is your first time deploying the model in the project, you have to subscribe your project for the particular offering.
+
+ > [!NOTE]
+ > This step requires that your account has the **Azure AI Developer role** permissions on the resource group, as listed in the prerequisites. Models that are offered by non-Microsoft providers (for example, Nixtla TimeGEN-1) are billed through Azure Marketplace. For such models, you're required to subscribe your project to the particular model offering. Each project has its own subscription to the particular Azure Marketplace offering of the model, which allows you to control and monitor spending. Currently, you can have only one deployment for each model within a project.
+
1. Once you subscribe the project for the particular Azure Marketplace offering, subsequent deployments of the _same_ offering in the _same_ project don't require subscribing again. If this scenario applies to you, there's a **Continue to deploy** option to select.
1. Give the deployment a name. This name becomes part of the deployment API URL. This URL must be unique in each Azure region.
-1. Select **Deploy**. Wait until the deployment is ready and you're redirected to the Deployments page.
+1. Select **Deploy**. Wait until the deployment is ready and you're redirected to the **Model deployments** page.
1. Return to the Deployments page, select the deployment, and note the endpoint's **Target** URI and the Secret **Key**. For more information on using the APIs, see the [reference](#reference-for-timegen-1-deployed-as-a-serverless-api) section.
1. [!INCLUDE [Find your deployment details](../includes/find-deployments.md)]
@@ -273,11 +271,11 @@ This JSON sample is an example response:
### Cost and quota considerations for TimeGEN-1 deployed as a serverless API
-Nixtla offers TimeGEN-1 deployed as a serverless API through the Azure Marketplace. TimeGEN-1 is integrated with Azure AI Foundry for use. You can find more information about Azure Marketplace pricing when you deploy the model.
+Nixtla offers TimeGEN-1 deployed as a serverless API through Azure Marketplace. TimeGEN-1 is integrated with Azure AI Foundry for use. You can find more information about Azure Marketplace pricing when you deploy the model.
-Each time a project subscribes to a given offer from the Azure Marketplace, a new resource is created to track the costs associated with its consumption. The same resource is used to track costs associated with inference; however, multiple meters are available to track each scenario independently.
+Each time a project subscribes to a given offer from Azure Marketplace, a new resource is created to track the costs associated with its consumption. The same resource is used to track costs associated with inference; however, multiple meters are available to track each scenario independently.
-For more information about how to track costs, visit [monitor costs for models offered throughout the Azure Marketplace](./costs-plan-manage.md#monitor-costs-for-models-offered-through-the-azure-marketplace).
+For more information about how to track costs, visit [monitor costs for models offered throughout Azure Marketplace](./costs-plan-manage.md#monitor-costs-for-models-offered-through-the-azure-marketplace).
Quota is managed per deployment. Each deployment has a rate limit of 200,000 tokens per minute and 1,000 API requests per minute. However, we currently limit one deployment per model per project. Contact Microsoft Azure Support if the current rate limits are insufficient for your scenarios.
Summary
{
"modification_type": "minor update",
"modification_title": "TimeGEN-1モデルのデプロイに関するドキュメントの修正"
}
Explanation
この変更は、TimeGEN-1モデルのデプロイに関するドキュメント(deploy-models-timegen-1.md)の内容を修正したもので、21行が追加され、23行が削除され、合計で44箇所の変更が行われています。主な修正点には、日付の更新や、Azure Marketplaceに関する説明の一貫性向上が含まれます。
変更は、主に以下の内容に焦点を当てています:
- 日付の更新: ドキュメントの日付が2024年12月16日に更新されました。
- 要件の改訂: デプロイに必要な要件が明確化され、用語が一貫して使用されるよう修正されています。具体的には、Azure AI Foundryプロジェクトやハブについての情報が適切に配置され、必要な地域に関する具体的な指示が強化されました。
- 手順の明確化: モデルのデプロイ手順が整理され、ユーザーが操作しやすいように改善されています。特に、ダイアログボックスや説明文が再構成され、流れがスムーズになっています。
この更新により、ユーザーはTimeGEN-1モデルをより容易にデプロイし、利用できるようになります。
articles/ai-studio/how-to/develop/sdk-overview.md
Diff
@@ -415,6 +415,8 @@ pip install azure-monitor-opentelemetry
Use the following code to enable instrumentation of the Azure AI Inference SDK and logging to your AI project:
```Python
+from azure.monitor.opentelemetry import configure_azure_monitor
+
# Enable instrumentation of AI packages (inference, agents, openai, langchain)
project.telemetry.enable()
Summary
{
"modification_type": "minor update",
"modification_title": "AI推論SDKの計装を有効にする手順の追加"
}
Explanation
この変更は、AI StudioのSDK概要に関するドキュメント(sdk-overview.md)に対する小規模な修正で、2行が追加されています。具体的には、Azure AI推論SDKへの計装を有効にし、AIプロジェクトへのログ記録を行うためのコードスニペットが追加されました。
新たに追加されたコードは、from azure.monitor.opentelemetry import configure_azure_monitor
というインポート文と、計装を有効にするための事前準備を示すコメントを含んでいます。これにより、ユーザーはAzure Monitorを使用して、AI推論SDKに関連するパッケージの計装を簡単に設定できるようになります。この更新は、開発者がデバッグやパフォーマンス監視を行う際に役立つ情報を提供します。
articles/ai-studio/how-to/develop/semantic-kernel.md
Diff
@@ -0,0 +1,226 @@
+---
+title: Develop applications with Semantic Kernel and Azure AI Foundry
+titleSuffix: Azure AI Foundry
+description: Develop applications with Semantic Kernel and Azure AI Foundry.
+author: lgayhardt
+ms.author: lagayhar
+ms.reviewer: taochen
+ms.date: 12/04/2024
+ms.topic: how-to
+ms.service: azure-ai-studio
+manager: scottpolly
+---
+
+# Develop applications with Semantic Kernel and Azure AI Foundry
+
+In this article, you learn how to use [Semantic Kernel](/semantic-kernel/overview/) with models deployed from the Azure AI model catalog in Azure AI Foundry portal.
+
+## Prerequisites
+
+- An [Azure subscription](https://azure.microsoft.com).
+- An Azure AI project as explained at [Create a project in Azure AI Foundry portal](../create-projects.md).
+- A model supporting the [Azure AI model inference API](../../reference/reference-model-inference-api.md?tabs=python) deployed. In this example, we use a `Mistral-Large` deployment, but use any model of your preference. For using embeddings capabilities in LlamaIndex, you need an embedding model like `cohere-embed-v3-multilingual`.
+
+ - You can follow the instructions at [Deploy models as serverless APIs](../deploy-models-serverless.md).
+
+- Python **3.10** or later installed, including pip.
+- Semantic Kernel installed. You can do it with:
+
+ ```bash
+ pip install semantic-kernel
+ ```
+- In this example, we are working with the Azure AI model inference API, hence we install the relevant Azure dependencies. You can do it with:
+ ```bash
+ pip install semantic-kernel[azure]
+ ```
+
+## Configure the environment
+
+To use LLMs deployed in Azure AI Foundry portal, you need the endpoint and credentials to connect to it. Follow these steps to get the information you need from the model you want to use:
+
+1. Go to the [Azure AI Foundry portal](https://ai.azure.com/).
+1. Open the project where the model is deployed, if it isn't already open.
+1. Go to **Models + endpoints** and select the model you deployed as indicated in the prerequisites.
+1. Copy the endpoint URL and the key.
+
+ :::image type="content" source="../../media/how-to/inference/serverless-endpoint-url-keys.png" alt-text="Screenshot of the option to copy endpoint URI and keys from an endpoint." lightbox="../../media/how-to/inference/serverless-endpoint-url-keys.png":::
+
+ > [!TIP]
+ > If your model was deployed with Microsoft Entra ID support, you don't need a key.
+
+In this scenario, we placed both the endpoint URL and key in the following environment variables:
+
+```bash
+export AZURE_AI_INFERENCE_ENDPOINT="<your-model-endpoint-goes-here>"
+export AZURE_AI_INFERENCE_API_KEY="<your-key-goes-here>"
+```
+
+Once configured, create a client to connect to the endpoint:
+
+```python
+from semantic_kernel.connectors.ai.azure_ai_inference import AzureAIInferenceChatCompletion
+
+chat_completion_service = AzureAIInferenceChatCompletion(ai_model_id="<deployment-name>")
+```
+
+> [!TIP]
+> The client automatically reads the environment variables `AZURE_AI_INFERENCE_ENDPOINT` and `AZURE_AI_INFERENCE_API_KEY` to connect to the model. However, you can also pass the endpoint and key directly to the client via the `endpoint` and `api_key` parameters on the constructor.
+
+Alternatively, if your endpoint support Microsoft Entra ID, you can use the following code to create the client:
+
+```bash
+export AZURE_AI_INFERENCE_ENDPOINT="<your-model-endpoint-goes-here>"
+```
+
+```python
+from semantic_kernel.connectors.ai.azure_ai_inference import AzureAIInferenceChatCompletion
+
+chat_completion_service = AzureAIInferenceChatCompletion(ai_model_id="<deployment-name>")
+```
+
+> [!NOTE]
+> When using Microsoft Entra ID, make sure that the endpoint was deployed with that authentication method and that you have the required permissions to invoke it.
+
+### Azure OpenAI models
+
+If you're using an Azure OpenAI model, you can use the following code to create the client:
+
+```python
+from azure.ai.inference.aio import ChatCompletionsClient
+from azure.identity.aio import DefaultAzureCredential
+
+from semantic_kernel.connectors.ai.azure_ai_inference import AzureAIInferenceChatCompletion
+
+chat_completion_service = AzureAIInferenceChatCompletion(
+ ai_model_id="<deployment-name>",
+ client=ChatCompletionsClient(
+ endpoint=f"{str(<your-azure-open-ai-endpoint>).strip('/')}/openai/deployments/{<deployment_name>}",
+ credential=DefaultAzureCredential(),
+ credential_scopes=["https://cognitiveservices.azure.com/.default"],
+ ),
+)
+```
+
+## Inference parameters
+
+You can configure how inference is performed by using the `AzureAIInferenceChatPromptExecutionSettings` class:
+
+```python
+from semantic_kernel.connectors.ai.azure_ai_inference import AzureAIInferenceChatPromptExecutionSettings
+
+execution_settings = AzureAIInferenceChatPromptExecutionSettings(
+ max_tokens=100,
+ temperature=0.5,
+ top_p=0.9,
+ # extra_parameters={...}, # model-specific parameters
+)
+```
+
+## Calling the service
+
+Let's first call the chat completion service with a simple chat history:
+
+> [!TIP]
+> Semantic Kernel is an asynchronous library, so you need to use the asyncio library to run the code.
+>
+> ```python
+> import asyncio
+>
+> async def main():
+> ...
+>
+> if __name__ == "__main__":
+> asyncio.run(main())
+> ```
+
+```python
+from semantic_kernel.contents.chat_history import ChatHistory
+
+chat_history = ChatHistory()
+chat_history.add_user_message("Hello, how are you?")
+
+response = await chat_completion_service.get_chat_message_content(
+ chat_history=chat_history,
+ settings=execution_settings,
+)
+print(response)
+```
+
+Alternatively, you can stream the response from the service:
+
+```python
+chat_history = ChatHistory()
+chat_history.add_user_message("Hello, how are you?")
+
+response = chat_completion_service.get_streaming_chat_message_content(
+ chat_history=chat_history,
+ settings=execution_settings,
+)
+
+chunks = []
+async for chunk in response:
+ chunks.append(chunk)
+ print(chunk, end="")
+
+full_response = sum(chunks[1:], chunks[0])
+```
+
+### Create a long-running conversation
+
+You can create a long-running conversation by using a loop:
+
+```python
+while True:
+ response = await chat_completion_service.get_chat_message_content(
+ chat_history=chat_history,
+ settings=execution_settings,
+ )
+ print(response)
+ chat_history.add_message(response)
+ chat_history.add_user_message(user_input = input("User:> "))
+```
+
+If you're streaming the response, you can use the following code:
+
+```python
+while True:
+ response = chat_completion_service.get_streaming_chat_message_content(
+ chat_history=chat_history,
+ settings=execution_settings,
+ )
+
+ chunks = []
+ async for chunk in response:
+ chunks.append(chunk)
+ print(chunk, end="")
+
+ full_response = sum(chunks[1:], chunks[0])
+ chat_history.add_message(full_response)
+ chat_history.add_user_message(user_input = input("User:> "))
+```
+
+## Use embeddings models
+
+Configure your environment similarly to the previous steps, but use the `AzureAIInferenceEmbeddings` class:
+
+```python
+from semantic_kernel.connectors.ai.azure_ai_inference import AzureAIInferenceTextEmbedding
+
+embedding_generation_service = AzureAIInferenceTextEmbedding(ai_model_id="<deployment-name>")
+```
+
+The following code shows how to get embeddings from the service:
+
+```python
+embeddings = await embedding_generation_service.generate_embeddings(
+ texts=["My favorite color is blue.", "I love to eat pizza."],
+)
+
+for embedding in embeddings:
+ print(embedding)
+```
+
+## Related content
+
+- [How to get started with Azure AI SDKs](sdk-overview.md)
+- [Reference for Semantic Kernel model integration](/semantic-kernel/concepts/ai-services/)
\ No newline at end of file
Summary
{
"modification_type": "new feature",
"modification_title": "Semantic KernelとAzure AI Foundryを使用したアプリケーション開発に関する新しいドキュメントの追加"
}
Explanation
この変更は、Semantic KernelとAzure AI Foundryを利用してアプリケーションを開発する方法についての新しいドキュメント(semantic-kernel.md)が追加されたものです。このドキュメントには、226行が新たに記載されており、Semantic Kernelを使用するための手順や構成、サンプルコードが詳述されています。
ドキュメントの主な内容は以下の通りです:
- 概要説明: Semantic KernelとAzure AI Foundryポータルでデプロイされたモデルを使用する方法についての学習内容が紹介されています。
- 前提条件: Azureサブスクリプション、Azure AIプロジェクト、特定のモデルのデプロイが必要であることが明確に記されています。さらに、PythonとSemantic Kernelのインストール手順が示されています。
- 環境設定: Azure AI Foundryポータルでモデルに接続するためのエンドポイント及び認証情報の取得方法が説明されています。
- クライアント接続と推論設定: Semantic Kernelを用いたクライアントの作成方法、推論に使用するパラメータの設定方法が詳細に説明されています。
- サービスの呼び出し例: チャットコンプリートサービスを使用したサンプルコードが提出され、非同期ライブラリを用いたコードの実行方法が提示されています。
- 関連コンテンツ: Azure AI SDKに関する情報へのリンクが提供され、ユーザーがさらなる情報を得やすくなっています。
この新しいドキュメントは、開発者がSemantic Kernelを活用し、Azure上でアプリケーションを効果的に開発するのに役立つリソースを提供します。
articles/ai-studio/how-to/model-catalog-overview.md
Diff
@@ -83,7 +83,7 @@ Cohere family models | Not available | Cohere-command-r-plus-08-2024 <br> Cohere
JAIS | Not available | jais-30b-chat
AI21 family models | Not available | Jamba-1.5-Mini <br> Jamba-1.5-Large
Healthcare AI family Models | MedImageParse<BR> MedImageInsight<BR> CxrReportGen<BR> Virchow<BR> Virchow2<BR> Prism<BR> BiomedCLIP-PubMedBERT<BR> microsoft-llava-med-v1.5<BR> m42-health-llama3-med4<BR> biomistral-biomistral-7b<BR> microsoft-biogpt-large-pub<BR> microsoft-biomednlp-pub<BR> stanford-crfm-biomedlm<BR> medicalai-clinicalbert<BR> microsoft-biogpt<BR> microsoft-biogpt-large<BR> microsoft-biomednlp-pub<BR> | Not Available
-Phi-3 family models | Phi-3-mini-4k-Instruct <br> Phi-3-mini-128k-Instruct <br> Phi-3-small-8k-Instruct <br> Phi-3-small-128k-Instruct <br> Phi-3-medium-4k-instruct <br> Phi-3-medium-128k-instruct <br> Phi-3-vision-128k-Instruct <br> Phi-3.5-mini-Instruct <br> Phi-3.5-vision-Instruct <br> Phi-3.5-MoE-Instruct | Phi-3-mini-4k-Instruct <br> Phi-3-mini-128k-Instruct <br> Phi-3-small-8k-Instruct <br> Phi-3-small-128k-Instruct <br> Phi-3-medium-4k-instruct <br> Phi-3-medium-128k-instruct <br> <br> Phi-3.5-mini-Instruct <br> Phi-3.5-vision-Instruct <br> Phi-3.5-MoE-Instruct
+Microsoft Phi family models | Phi-3-mini-4k-Instruct <br> Phi-3-mini-128k-Instruct <br> Phi-3-small-8k-Instruct <br> Phi-3-small-128k-Instruct <br> Phi-3-medium-4k-instruct <br> Phi-3-medium-128k-instruct <br> Phi-3-vision-128k-Instruct <br> Phi-3.5-mini-Instruct <br> Phi-3.5-vision-Instruct <br> Phi-3.5-MoE-Instruct <br> Phi-4| Phi-3-mini-4k-Instruct <br> Phi-3-mini-128k-Instruct <br> Phi-3-small-8k-Instruct <br> Phi-3-small-128k-Instruct <br> Phi-3-medium-4k-instruct <br> Phi-3-medium-128k-instruct <br> <br> Phi-3.5-mini-Instruct <br> Phi-3.5-vision-Instruct <br> Phi-3.5-MoE-Instruct
Nixtla | Not available | TimeGEN-1
<!-- docutune:enable -->
Summary
{
"modification_type": "minor update",
"modification_title": "Microsoft Phiファミリーモデルのセクション名の変更"
}
Explanation
この変更は、モデルカタログの概要に関するドキュメント(model-catalog-overview.md)のわずかな修正で、Microsoft Phiファミリーモデルのセクション名が「Phi-3 family models」から「Microsoft Phi family models」に変更されました。この修正により、名称がより明確になり、Microsoftが提供するPhiモデル群であることが強調されています。
具体的には、前の行から1行削除され、その行に新たに適切なセクション名が追加されています。この変更は、ユーザーがモデルカタログを参照する際に、特定のモデル群がどの企業によって提供されているのかをより理解しやすくするための改善です。全体的な文書の意味合いには大きな影響を与えない修正ですが、読み手にとっての明確さを増す重要なアップデートです。
articles/ai-studio/includes/create-env-file-tutorial.md
Diff
@@ -23,15 +23,13 @@ CHAT_MODEL="gpt-4o-mini"
EVALUATION_MODEL="gpt-4o-mini"
```
-If you changed the name of the models you deployed, or you want to try different models, update those names in this `.env` file.
+* Find your connection string in the Azure AI Foundry project you created in the [AI Foundry playground quickstart](../quickstarts/get-started-playground.md). Open the project, then find the connection string on the **Overview** page. Copy the connection string and paste it into the `.env` file.
-Find your connection string in the Azure AI Foundry project you created in the [AI Foundry playground quickstart](../quickstarts/get-started-playground.md). Open the project, then find the connection string on the **Overview** page. Copy the connection string and paste it into the `.env` file.
+ :::image type="content" source="../media/quickstarts/azure-ai-sdk/connection-string.png" alt-text="Screenshot shows the overview page of a project and the location of the connection string.":::
-:::image type="content" source="../media/quickstarts/azure-ai-sdk/connection-string.png" alt-text="Screenshot shows the overview page of a project and the location of the connection string.":::
+* If you don't yet have a search index, keep the value "example-index" for `AISEARCH_INDEX_NAME`. In Part 2 of this tutorial you'll create the index using this name. If you have previously created a search index that you want to use instead, update the value to match the name of that search index.
-If you have a search index that you want to use, update the `AISEARCH_INDEX_NAME` value to match the name of your search index. If you don't have one, you'll create one in Part 2 of this tutorial.
-
-If you changed the names of the models when you deployed them, update the values in the `.env` file to match the names you used.
+* If you changed the names of the models when you deployed them, update the values in the `.env` file to match the names you used.
> [!TIP]
> If you're working in VS Code, close and reopen the terminal window after you've saved changes in the `.env` file.
Summary
{
"modification_type": "minor update",
"modification_title": ".envファイル作成チュートリアルの内容更新"
}
Explanation
この変更は、.env
ファイルの作成に関するチュートリアル(create-env-file-tutorial.md)の一部内容が更新されたものです。具体的には、4行が追加され、6行が削除され、合計10行が変更されています。主な内容の修正ポイントは以下の通りです:
- 接続文字列の取得手順の記述が明確にされ、新しい箇条書き形式で記載されています。これにより、ユーザーがAzure AI Foundryプロジェクトの接続文字列を見つけ、
.env
ファイルにコピーする手順をよりわかりやすく理解できるようになりました。
- 接続文字列を見つける際の手順を繰り返し記載することを避けるため、以前の説明が統合されました。この結果、冗長な説明が排除され、情報が明確に整理されています。
AISEARCH_INDEX_NAME
の設定についての記述が簡略化され、具体的に何をするべきかがより直感的に理解できるように改善されています。
- 画像による説明は残され、その位置と参照が強調されています。
全体として、このマイナーアップデートは、ユーザーが.env
ファイルを作成する際の手順を簡潔かつ明確にし、誤解を避けるための重要な情報整理を反映しています。
articles/ai-studio/media/ai-services/add-model-deployments/models-deploy-confirm.png
Summary
{
"modification_type": "minor update",
"modification_title": "モデルデプロイ確認画像の削除"
}
Explanation
この変更は、モデルデプロイメントの確認に関する画像(models-deploy-confirm.png)がリポジトリから削除されたことを示しています。この変更における主なポイントは以下の通りです:
- 画像ファイルがリポジトリから完全に削除され、これにより関連するドキュメントや記事でその画像が表示されなくなる可能性があります。
- 削除された画像が何を示していたのか、または今後の文書にどのような影響を与えるかについての詳細は示されていませんが、一般的にはデザインの更新や内容の整合性を保つための見直しの一環として考えられます。
この変更は機能的には大きな影響を与えないマイナーな更新ですが、視覚的なリソースが失われたことはユーザーにとっての情報の補足に影響を与える可能性があります。今後、同様の情報を提供するためには新しい画像を追加する必要があるかもしれません。
articles/ai-studio/media/ai-services/add-model-deployments/models-deploy-deployment-type.png
Summary
{
"modification_type": "minor update",
"modification_title": "モデルデプロイメントタイプ画像の削除"
}
Explanation
この変更は、モデルデプロイメントのタイプに関する画像(models-deploy-deployment-type.png)がリポジトリから削除されたことを示しています。以下は、この変更に関連する主なポイントです:
- 該当の画像ファイルがリポジトリから完全に削除されたことで、関連するドキュメントや記事内でこの画像が表示されなくなる可能性があります。
- 削除された画像がどのような情報を提供していたかは記載されていませんが、これはワークフローの見直しやデザインの変更、または情報の精度向上の一環として行われることが一般的です。
このマイナーな更新は、データやリソースの整理の一環として捉えられ、これによりユーザーが参照するドキュメントの内容がより統一感を持つようになることが期待されます。しかし、今後、新たな情報提供に向けてこの画像の代替となるビジュアルリソースを用意する必要があるかもしれません。
articles/ai-studio/media/ai-services/overview/overview-models.png
Summary
{
"modification_type": "minor update",
"modification_title": "モデル全体概要画像の削除"
}
Explanation
この変更は、モデルに関する全体の概要を示す画像(overview-models.png)がリポジトリから削除されたことを示しています。以下は、この変更に関連する主なポイントです:
- 該当の画像ファイルが完全にリポジトリから削除されており、それに伴い関連するドキュメントや記事内でこの画像が表示されなくなる可能性があります。
- 削除された画像は、モデルの全体像を視覚的に説明していた可能性があり、そのためユーザーが得られる情報の一部が失われることになります。
このマイナーな更新は、情報やリソースの整理に関連していると考えられ、より一貫性のある文書を目指す動きの一環と見ることができます。今後、必要に応じて新しいビジュアルリソースを追加することで、ユーザーへの情報伝達を強化する必要があるかもしれません。
articles/ai-studio/media/content-safety/select-panel.png
Summary
{
"modification_type": "minor update",
"modification_title": "コンテンツセーフティ選択パネル画像の削除"
}
Explanation
この変更は、コンテンツセーフティに関連する選択パネルの画像(select-panel.png)がリポジトリから削除されたことを示しています。以下は、この変更に関する主なポイントです:
- 選択パネルを示す画像ファイルがリポジトリから削除されたため、関連するドキュメントや記事内でその画像が表示されなくなります。
- 削除された画像は、ユーザーにとって重要な情報を視覚的に提供していた可能性があり、そのためこの情報が失われることになります。
このマイナーな更新は、情報の整理やビジュアルリソースの更新を目的としたものであると考えられ、将来的には新しい画像や情報を追加することによって、ユーザーへのより良い情報提供が求められるかもしれません。このような変更は、ドキュメントの品質向上や信頼性の確保に寄与するものと言えるでしょう。
articles/ai-studio/media/deploy-monitor/catalog-filter-serverless-api.png
Summary
{
"modification_type": "minor update",
"modification_title": "サーバーレスAPIカタログフィルター画像の削除"
}
Explanation
この変更は、サーバーレスAPIに関連するカタログフィルターの画像(catalog-filter-serverless-api.png)がリポジトリから削除されたことを示しています。以下のポイントが考えられます:
- サーバーレスAPIのカタログフィルターを説明するこの画像ファイルは削除されたため、関連するドキュメントやコンテンツ内でこのビジュアルが表示されなくなります。
- この画像は、ユーザーにとって理解を助けるための重要な情報を提供していたかもしれませんが、削除されたことでその情報が失われることになります。
このマイナーな更新は、ドキュメントの内容や可視性の整理を目的としていると考えられ、今後、新たなビジュアルリソースが追加される可能性があります。これにより、ユーザーが情報を効果的に理解できるよう、より良い情報提供が期待されるでしょう。また、情報の信頼性を確保するためにも、不要なコンテンツの整理は重要です。
articles/ai-studio/media/deploy-monitor/jais/jais-deploy-pay-as-you-go.png
Summary
{
"modification_type": "minor update",
"modification_title": "ペイ・アズ・ユー・ゴーのデプロイ画像の削除"
}
Explanation
この変更は、ペイ・アズ・ユー・ゴーに関するデプロイ画像(jais-deploy-pay-as-you-go.png)がリポジトリから削除されたことを示しています。以下のポイントが考えられます:
- この画像ファイルは、AIスタジオのデプロイメントに関する具体的な情報を提供していた可能性があり、削除されたことで関連する説明やマニュアルにおいて視覚的サポートが欠けることになります。
- ユーザーが内容を理解するのに役立つ重要なリソースだったかもしれませんが、この変更により、その情報が失われてしまいます。
このマイナーな更新は、アプローチやコンテンツの整備を目的としていると推測され、将来的に新しい画像や準備が整った資料が追加されることも期待されます。情報の精度や視覚的な理解を向上させるための整理は、ユーザーエクスペリエンスの向上に貢献するでしょう。
articles/ai-studio/media/deploy-monitor/jais/jais-search.png
Summary
{
"modification_type": "minor update",
"modification_title": "JAIS検索画像の削除"
}
Explanation
この変更は、JAIS検索を示す画像(jais-search.png)がリポジトリから削除されたことを意味します。以下の点が重要です:
- この画像は、JAISに関連する検索機能の説明を補完するための視覚的な資源として利用されていた可能性がありますが、削除されることで関連するドキュメントでそのビジュアルが表示されなくなります。
- これにより、ユーザーがJAISの検索機能を理解するための重要な手段が失われることになります。
このマイナーな更新は、ドキュメントや資料の再編成、または情報提供の精度を向上させるための措置であると考えられます。今後、より具体的または新しい情報が追加されることにより、ユーザー体験が改善されることが期待されます。情報の信頼性とアクセスの向上に寄与するために、不要なコンテンツの除去が重要であることが示されています。
articles/ai-studio/media/deploy-monitor/llama/deploy-pay-as-you-go.png
Summary
{
"modification_type": "minor update",
"modification_title": "Llamaのペイ・アズ・ユー・ゴーのデプロイ画像の削除"
}
Explanation
この変更は、Llamaに関連するペイ・アズ・ユー・ゴーのデプロイ画像(deploy-pay-as-you-go.png)がリポジトリから削除されたことを示しています。以下のポイントが考えられます:
- この画像は、Llamaデプロイメントに関する具体的な情報を視覚的に提供していたと思われますが、削除によりそのビジュアル要素が失われ、関連する資料の理解に影響を与える可能性があります。
- 情報の整理や更新の一環として、このような削除が行われることはあまり珍しくなく、今後の改善に向けた準備や新しいコンテンツの追加を示唆しているかもしれません。
このマイナーなアップデートは、情報の透明性や信頼性の向上を目指していると考えられます。画像が削除されたことにより、内容の再評価や他の視覚資料の統合または更新が進められることが期待されます。ユーザーエクスペリエンスの向上に向けた努力と見受けられます。
articles/ai-studio/media/deploy-monitor/llama/deploy-real-time-endpoint.png
Summary
{
"modification_type": "minor update",
"modification_title": "Llamaのリアルタイムエンドポイントデプロイ画像の削除"
}
Explanation
この変更は、Llamaに関するリアルタイムエンドポイントを示す画像(deploy-real-time-endpoint.png)がリポジトリから削除されたことを表しています。主なポイントは以下の通りです:
- 画像は、Llamaのリアルタイムデプロイメント機能に関連する情報を視覚的に提供していた可能性があります。削除されることで、関連するドキュメントにおいて視覚的なコンテキストが失われることになります。
- 画像の削除は、コンテンツの整理や更新の一環である可能性が高く、今後のドキュメント改善や新しい視覚資料の追加を目指した動きと考えられます。
このマイナーなアップデートは、情報の整合性や明確さを保つために行われたものであると推測されます。ユーザーが最も関連性の高い情報にアクセスできるようにするための努力が見受けられ、今後の更新に期待が寄せられます。
articles/ai-studio/media/disable-local-auth/ai-studio-storage-account.png
Summary
{
"modification_type": "minor update",
"modification_title": "AIスタジオストレージアカウントの画像の削除"
}
Explanation
この変更は、AIスタジオストレージアカウントに関連する画像(ai-studio-storage-account.png)がリポジトリから削除されたことを示しています。以下のポイントが考えられます:
- この画像は、ローカル認証を無効にする手順や設定に関する情報を視覚的に提供していたと思われます。削除により、使用していたドキュメントでのビジュアル表現が欠落することになります。
- 画像の削除は、コンテンツの整理や品質向上の取り組みの一部であり、今後の改善や新しい情報の提供を目指している可能性があります。
このマイナーなアップデートは、情報の整合性やリソースの最適化を図るために行われたものであり、引き続き高品質なコンテンツの提供を目指す意図が感じられます。ユーザーが必要とする情報にアクセスできるように、さらなる更新が期待されます。
articles/ai-studio/media/disable-local-auth/create-new-hub-azure-ai-studio-first-step.png
Summary
{
"modification_type": "minor update",
"modification_title": "Azure AI Studioの新しいハブ作成手順画像の削除"
}
Explanation
この変更は、Azure AI Studioで新しいハブを作成する手順に関連する画像(create-new-hub-azure-ai-studio-first-step.png)がリポジトリから削除されたことを示しています。主なポイントは以下の通りです:
- この画像は、ユーザーがローカル認証を無効にする手順を理解するためのビジュアルガイドとして機能していたと考えられます。削除により、特定の手順に関する視覚的な情報が失われます。
- 画像の削除は、ドキュメントの改善や最新のコンテンツを反映させるための措置である可能性が高く、今後の更新で新しい情報が追加されることが期待されます。
このマイナーなアップデートは、ドキュメントの整合性や明快さを高めるためのものであり、ユーザーが適切な情報を得るための努力が感じられます。引き続き、質の高いコンテンツの提供が期待されます。
articles/ai-studio/media/evaluations/safety-evaluation-service-diagram.png
Summary
{
"modification_type": "minor update",
"modification_title": "安全評価サービスの図の削除"
}
Explanation
この変更は、安全評価サービスに関連する図(safety-evaluation-service-diagram.png)がリポジトリから削除されたことを示しています。以下のポイントが考えられます:
- この図は、安全評価サービスの構造やプロセスを視覚的に説明するために使用されていたと推測されます。削除により、このサービスに関する視覚的な情報が失われ、ユーザーにとっての理解が難しくなる可能性があります。
- 画像の削除は、ドキュメントの整理や情報の明確化を目的とする一環である可能性があります。新しい情報や図が追加される準備が進められているとも考えられます。
このマイナーなアップデートは、ドキュメントやコンテンツの品質向上を目指すものであり、今後の更新で新しい情報が提供されることが期待されます。ユーザーがより良い情報を得られるような取り組みの一環として捉えられます。
articles/ai-studio/media/explore/home-model-catalog.png
Summary
{
"modification_type": "minor update",
"modification_title": "ホームモデルカタログの図の削除"
}
Explanation
この変更は、AI Studioのホームモデルカタログに関連する図(home-model-catalog.png)がリポジトリから削除されたことを示しています。主なポイントは以下の通りです:
- この画像は、ユーザーがモデルカタログにアクセスする方法やその構造を視覚的に示すためのものであったと考えられます。削除により、この情報へのアクセスが視覚的に難しくなる可能性があります。
- 図の削除は、内容の整理や最新情報の反映を図るための措置である可能性があります。将来的に新たな図や資料が追加される可能性があります。
このマイナーな更新は、コンテンツの品質を保持するための努力の一環として理解されるべきです。ユーザーにとって有用な情報を提供するために、今後の改善に期待が寄せられます。
articles/ai-studio/media/how-to/hubs/manage-hub-azure-portal.png
Summary
{
"modification_type": "minor update",
"modification_title": "Azureポータルでのハブ管理の図の削除"
}
Explanation
この変更は、Azureポータルでハブを管理する方法に関連する図(manage-hub-azure-portal.png)がリポジトリから削除されたことを示しています。以下のポイントが考慮されます:
- この画像は、ユーザーがAzureポータルでハブを効率的に管理するための手順や情報を視覚的に補足するために使用されていた可能性があります。削除により、このプロセスについての理解が一時的に低下する恐れがあります。
- 画像の削除は、情報の精査やコンテンツの整理を意図している場合があります。将来的に新しい図や情報が追加される準備がされているかもしれません。
このマイナーなアップデートは、ドキュメントの品質向上を目指すものであり、凍結された情報や古い内容を削除することによって、ユーザーに対してより正確で役立つ情報を提供することが期待されています。
articles/ai-studio/media/how-to/tracing/tracing-collections-empty.png
Summary
{
"modification_type": "minor update",
"modification_title": "トレーシングコレクションの空の図の削除"
}
Explanation
この変更は、トレーシングコレクションが空であることを示す図(tracing-collections-empty.png)がリポジトリから削除されたことを示しています。以下のポイントが考えられます:
- この画像は、ユーザーがトレーシングコレクションが空である状態を理解するための視覚的な参考として機能していたと考えられます。削除により、この特定の状態を説明する手段が一時的に失われます。
- 画像が削除された理由としては、内容の整理や古くなった情報の除去、または新しい図の準備などが考えられます。今後、より新しい画像や更新が期待されるかもしれません。
このマイナーな更新は、ドキュメントの整合性と正確性を保つための取り組みの一環とみなされ、ユーザーに対してより良い情報を提供するための基盤になるでしょう。
articles/ai-studio/media/tutorials/chat/deploy-create.png
Summary
{
"modification_type": "minor update",
"modification_title": "チャットデプロイ作成の図の削除"
}
Explanation
この変更は、チャットデプロイ作成に関連する図(deploy-create.png)がリポジトリから削除されたことを示しています。以下のポイントが考慮されます:
- この画像は、ユーザーがチャット機能をデプロイする手順を視覚的に理解するためのサポートをしていたと考えられます。削除により、この手順が説明される際の視覚的な参考が失われることになります。
- 画像が削除された背景には、古くなった情報の整理や、より良いビジュアルリソースへの更新の意図が含まれている可能性があります。将来的には、新しいアプローチや情報が提供されることが期待されます。
このマイナーアップデートは、文書の正確性とクオリティの向上を目指すものであり、ユーザーにより良い体験を提供するための取り組みの一環と見なされます。
articles/ai-studio/quickstarts/get-started-code.md
Diff
@@ -42,7 +42,7 @@ pip install azure-ai-projects azure-ai-inference azure-identity
Create a file named **chat.py**. Copy and paste the following code into it.
-:::code language="python" source="~/azureai-samples-nov2024/scenarios/inference/chat-app/chat-simple.py":::
+:::code language="python" source="~/azureai-samples-temp/scenarios/inference/chat-app/chat-simple.py":::
## Insert your connection string
@@ -70,9 +70,9 @@ Let's change the script to take input from a client application and generate a s
1. Remove the last line of the script that prints a response.
-1. Now define a `get_chat_response` function that takes messages and context, generates a system message using a prompt template, and calls a model. Add this code to your **chat.py** file:
+1. Now define a `get_chat_response` function that takes messages and context, generates a system message using a prompt template, and calls a model. Add this code to your existing **chat.py** file:
- :::code language="python" source="~/azureai-samples-nov2024/scenarios/inference/chat-app/chat-template.py" id="chat_function":::
+ :::code language="python" source="~/azureai-samples-temp/scenarios/inference/chat-app/chat-template.py" id="chat_function":::
> [!NOTE]
> The prompt template uses mustache format.
@@ -81,9 +81,9 @@ Let's change the script to take input from a client application and generate a s
1. Now simulate passing information from a frontend application to this function. Add the following code to the end of your **chat.py** file. Feel free to play with the message and add your own name.
- :::code language="python" source="~/azureai-samples-nov2024/scenarios/inference/chat-app/chat-template.py" id="create_response":::
+ :::code language="python" source="~/azureai-samples-temp/scenarios/inference/chat-app/chat-template.py" id="create_response":::
-Run the script to see the response from the model with this new input.
+Run the revised script to see the response from the model with this new input.
```bash
python chat.py
Summary
{
"modification_type": "minor update",
"modification_title": "コードサンプルの修正とパスの更新"
}
Explanation
この変更は、「get-started-code.md」ファイルのコードサンプルに関する修正を含んでいます。具体的には、いくつかのコードのソースパスが更新され、文言が少し修正されました。以下のポイントが重要です:
- コードのパスが「/azureai-samples-nov2024/」から「/azureai-samples-temp/」に変更されており、これにより、使用しているコードサンプルの場所が更新されていることが示されています。この変更は、適切なファイルを参照するためのものであり、最新のサンプルを使用することを目的としています。
- また、手順の一部が若干修正され、「existing」という単語が追加されることで、ユーザーに対して既存のファイルにコードを追加することがより明確に伝わるようになっています。
- このような細かな修正は、ユーザーが正確かつ効果的にコードを理解し実行できるようにするためのものであり、全体としてのドキュメントの明確性と有用性を向上させるためのものです。
これらの変更は、プログラミングにおける具体的な適用方法を伝える文書の質を高めるために重要です。
articles/ai-studio/toc.yml
Diff
@@ -30,8 +30,6 @@ items:
displayName: code
- name: Get started using Azure OpenAI Assistants
href: ../ai-services/openai/assistants-quickstart.md?context=/azure/ai-studio/context/context
- - name: Use Azure AI Foundry with a screen reader
- href: tutorials/screen-reader.md
- name: Tutorials
items:
- name: Deploy an enterprise chat web app
@@ -303,6 +301,8 @@ items:
- name: Develop with LlamaIndex
href: how-to/develop/llama-index.md
displayName: code,sdk
+ - name: Develop with Semantic Kernel
+ href: how-to/develop/semantic-kernel.md
- name: Trace generative AI apps
items:
- name: Tracing overview
@@ -462,6 +462,8 @@ items:
items:
- name: Support & help options
href: ../ai-services/cognitive-services-support-options.md?context=/azure/ai-studio/context/context
+ - name: Use Azure AI Foundry with a screen reader
+ href: tutorials/screen-reader.md
- name: Region support
href: https://azure.microsoft.com/global-infrastructure/services/?products=cognitive-services
- name: Azure updates
Summary
{
"modification_type": "minor update",
"modification_title": "TOCの更新と新しいチュートリアルの追加"
}
Explanation
この変更は、「toc.yml」ファイルの内容に関する更新を示しています。具体的には、いくつかの項目が追加、削除、または修正されています。以下の主要なポイントがあります:
- 「Use Azure AI Foundry with a screen reader」という項目が一度削除された後、再度追加されています。これにより、画面リーダーを使用してAzure AI Foundryを利用するためのガイドが再びTOCに含まれることになりました。
- 新たに「Develop with Semantic Kernel」という項目が追加され、関連するドキュメントへのリンクが設定されています。この追加により、ユーザーはSemantic Kernelの開発に関する情報にアクセスしやすくなります。
- タイトルの変更やリンクの修正も行われ、ドキュメントの構成が整理されています。このような小さな更新は、ユーザーが必要とする情報を迅速に見つけられるようにするために重要です。
これにより、ユーザーがAI Studioの管理下でのリソースに簡単にアクセスでき、必要なサポートを受けることができるように工夫されています。全体的に見て、この変更はリソースの充実化とユーザー体験の向上を目的としています。