View Diff on GitHub
ハイライト
このコードの変更では、Azure OpenAIサービスに関する複数のドキュメントが更新され、新機能としてビデオ生成機能が大きく強調されています。「Sora」という新しいビデオ生成モデルのリリースを中心に、関連するAPIおよびクイックスタートガイドが追加されました。また、既存のドキュメントにおける日付や内容の更新も実施されており、最新の情報へのアクセスのしやすさが改善されています。
新機能
- 「Sora」という新しいビデオ生成モデルが追加され、テキスト指示からリアルで創造的なビデオシーンを生成する機能が紹介されています。
- ビデオ生成に関する詳細なREST APIドキュメントとクイックスタートガイドが追加されました。
- OpenAIサービスで利用可能な新しいAPIレスポンス機能、リモートモデルコンテキストプロトコル(MCP)サポート、非同期バックグラウンドタスク、および暗号化された推論アイテムについても記載されています。
ブレイク変更
- 特筆すべきブレイク変更はありませんが、クォータ及びリミットにいくつかの新しい制限が追加されており、ユーザーはこれに注意する必要があります。
その他の更新
- ドキュメントの日付が最新のものに更新され、いくつかのドキュメントではテーブル形式の変更が行われ、利用者の理解が容易になりました。
- GUIやモデルの地域別サポート状況も詳しく更新され、適用範囲が広がっています。
インサイト
Azure OpenAIのドキュメント更新は、特にビデオ生成への新しいアプローチを強調するためのものであり、サービスの拡張と深化に重要な役割を果たしています。「Sora」モデルの追加により、Azure OpenAIは単なるテキスト生成から一歩進んで、マルチメディアへの進出を果たしました。これは、ビジネスやクリエイティブなアプリケーションにおいて新たな使用事例を想定でき、ユーザー体験を豊かにする可能性を提供します。
新しいREST APIとクイックスタートガイドは、開発者がこの機能をすぐに利用できるように設計されており、実装の迅速化をサポートします。特に技術に不慣れなユーザーでも、詳細なガイドラインが豊富に提供されているため、プロジェクト開始への障壁が低くなっています。これにより、開発者コミュニティにとっては、有意義で爆発的な創造活動が期待されます。
さらに、最新情報への迅速なアクセスを可能にするための細かなドキュメントの更新と整備が続けられ、多様なニーズに応じた柔軟な利用が可能になっています。全体として、Azure OpenAIの改善は、今後もAIアプリケーションの普及と深化に対する推進力となるでしょう。
Summary Table
Modified Contents
articles/ai-services/openai/api-version-lifecycle.md
Diff
@@ -268,6 +268,12 @@ Azure OpenAI API latest releases:
## Changes between v1 preview release and 2025-04-01-preview
- [v1 preview API](#api-evolution)
+- [Video generation support](./concepts/video-generation.md)
+- **NEW** Responses API features:
+ * Remote Model Context Protocol (MCP) servers tool integration
+ * Support for asynchronous background tasks
+ * Encrypted reasoning items
+ * Image generation
## Changes between 2025-04-01-preview and 2025-03-01-preview
Summary
{
"modification_type": "minor update",
"modification_title": "API バージョンライフサイクルの更新"
}
Explanation
この変更では、Azure OpenAI APIのドキュメントに新しい情報が追加されました。具体的には、最新のリリースに関するセクションにおいて、ビデオ生成サポートと新しいAPIレスポンス機能がリストされています。これには、リモートモデルコンテキストプロトコル(MCP)サーバーのツール統合、非同期バックグラウンドタスクのサポート、暗号化された推論アイテム、および画像生成が含まれています。この更新は、特に開発者やユーザーが新機能を利用する際に重要な情報を提供するものです。
articles/ai-services/openai/azure-government.md
Diff
@@ -6,7 +6,7 @@ author: challenp
ms.service: azure-ai-openai
ms.topic: how-to
ms.custom: references_regions, azuregovernment
-ms.date: 5/14/2025
+ms.date: 5/29/2025
recommendations: false
---
@@ -24,10 +24,10 @@ The following sections show model availability by region and deployment type. Mo
<br>
## Standard deployment model availability
-| **Region** | **o3-mini USGov DataZone** | **gpt-4o**, **2024-05-13** | **gpt-4o-mini**, **2024-07-18** | **gpt-4**, **1106-Preview** | **gpt-35-turbo**, **0125** | **text-embedding-3-large**, **1** | **text-embedding-ada-002**, **2** |
-|:--------------|:--------------------------:|:--------------------------:|:-------------------------------:|:---------------------------:|:--------------------------:|:---------------------------------:|:---------------------------------:|
-| usgovarizona | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
-| usgovvirginia | ✅ | ✅ | - | ✅ | ✅ | - | ✅ |
+| **Region** | **o3-mini USGov DataZone** | **gpt-4o**, **2024-05-13** | **gpt-4o-mini**, **2024-07-18** | **gpt-4**, **1106-Preview** | **gpt-35-turbo**, **0125** | **text-embedding-3-large**, **1** | **text-embedding-3-small**, **1** | **text-embedding-ada-002**, **2** |
+|:--------------|:--------------------------:|:--------------------------:|:-------------------------------:|:---------------------------:|:--------------------------:|:---------------------------------:|:---------------------------------:|:---------------------------------:|
+| usgovarizona | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| usgovvirginia | ✅ | ✅ | - | ✅ | ✅ | - | - | ✅ |
* USGov DataZone provides access to the model from both usgovarizona and usgovvirginia.
* Data stored at rest remains in the designated Azure region of the resource.
Summary
{
"modification_type": "minor update",
"modification_title": "Azure Government ドキュメントの更新"
}
Explanation
この変更では、Azure Governmentに関するドキュメントが更新されました。主な変更点は、ドキュメントの日付が2025年5月14日から2025年5月29日に変更されたことと、新しいテーブルフォーマットに加え、モデルの地域別とデプロイメントタイプによる可用性が更新された点です。具体的には、テーブル内の列が追加され、各地域におけるモデルの利用可能性が明確に表示されています。これにより、情報が最新かつ正確になり、ユーザーはAzure GovernmentでのAIモデルの利用可能性をより簡単に理解できるようになります。
articles/ai-services/openai/concepts/models.md
Diff
@@ -244,6 +244,19 @@ Once access has been granted, you will need to create a deployment for the model
|`dall-e-3` | East US<br>Australia East<br>Sweden Central|
|`gpt-image-1` | West US 3 (Global Standard) <br> UAE North (Global Standard) |
+
+## Video generation models
+
+Sora is an AI model from OpenAI that can create realistic and imaginative video scenes from text instructions. Sora is in public preview.
+
+
+
+### Region availability
+
+| Model | Region |
+|---|---|
+|`sora` | East US 2|
+
## Audio models
Audio models in Azure OpenAI are available via the `realtime`, `completions`, and `audio` APIs.
@@ -439,6 +452,20 @@ These models can only be used with Embedding API requests.
| gpt-image-1 | 4,000 |
| dall-e-3 | 4,000 |
+# [Video Generation](#tab/standard-video-generations)
+
+### Video generation models
+
+| **Region** | **sora** |
+|:-----------------|:---------------------:|
+| eastus2 | ✅ |
+
+| Model ID | Max Request (characters) |
+| --- | :---: |
+| sora | 4,000 |
+
+
+
# [Audio](#tab/standard-audio)
### Audio models
Summary
{
"modification_type": "new feature",
"modification_title": "ビデオ生成モデルに関する新情報の追加"
}
Explanation
この変更では、Azure OpenAIに新しいビデオ生成モデル「Sora」に関する情報が追加されました。Soraは、テキスト指示からリアルで想像豊かなビデオシーンを生成できるAIモデルで、現在はパブリックプレビューの状態にあります。ドキュメント内には、Soraの地域別可用性に関するテーブルが追加されており、どの地域でこのモデルが利用可能かが明示されています。また、Soraモデルの最大リクエスト数に関する情報も追加されており、利用者はこの新機能を活用しやすくなっています。この更新により、ユーザーはAzure OpenAIサービスにおけるビデオ生成の可能性を理解しやすくなっています。
articles/ai-services/openai/concepts/video-generation.md
Diff
@@ -0,0 +1,54 @@
+---
+title: Sora video generation overview (preview)
+description: Learn about Sora, an AI model for generating realistic and imaginative video scenes from text instructions, including safety, limitations, and supported features.
+author: PatrickFarley
+ms.author: pafarley
+manager: nitinme
+ms.service: azure-ai-openai
+ms.topic: conceptual
+ms.date: 5/29/2025
+---
+
+# Sora video generation (preview)
+
+Sora is an AI model from OpenAI that can create realistic and imaginative video scenes from text instructions. The model is capable of generating a wide range of video content, including realistic scenes, animations, and special effects. Several video resolutions and durations are supported.
+
+## Supported features
+
+Sora can generate complex scenes with multiple characters, diverse motions, and detailed backgrounds. The model interprets prompts with contextual and physical world understanding, enabling accurate scene composition and character persistence across multiple shots. Sora demonstrates strong language comprehension for prompt interpretation and emotional character generation.
+
+## How it works
+
+Video generation is an asynchronous process. You create a job request with your text prompt and video format specifications, and the model processes the request in the background. You can check the status of the video generation job and, once it finishes, retrieve the generated video via a download URL.
+
+## Best practices for prompts
+
+Users should write text prompts in English or Latin script languages for the best video generation performance.
+
+
+## Limitations
+
+### Content quality limitations
+
+Sora might have difficulty with complex physics, causal relationships (for example, bite marks on a cookie), spatial reasoning (for example, knowing left from right), and precise time-based event sequencing such as camera movement.
+
+### Technical limitations
+
+Sora has some technical limitations to be aware of:
+
+- Sora supports the following output resolution dimensions:
+480x480, 480x854, 854x480, 720x720, 720x1280, 1280x720, 1080x1080, 1080x1920, 1920x1080.
+- Sora supports video durations between 1 and 20 seconds.
+- You can request multiple video variants in a single job: for 1080p resolutions, this feature is disabled; for 720p, the maximum is two variants; for other resolutions, the maximum is four variants.
+- You can have two video creation jobs running at the same time. You must wait for one of the jobs to finish before you can create another.
+- Jobs are available for up to 24 hours after they're created. After that, you must create a new job to generate the video again.
+
+## Responsible AI
+
+Sora has a robust safety stack including content filtering, abuse monitoring, sensitive content blocking, and safety classifiers.
+
+Sora doesn't generate scenes with acts of violence but can generate adjacent content, such as realistic war-like footage.
+
+## Related content
+- [Video generation quickstart](../video-generation-quickstart.md)
+- [Image generation quickstart](../dall-e-quickstart.md)
Summary
{
"modification_type": "new feature",
"modification_title": "新たに追加されたビデオ生成に関する情報"
}
Explanation
この変更では、OpenAIの新しいAIモデル「Sora」に関するビデオ生成のための詳細なドキュメントが追加されました。Soraは、テキスト指示からリアルで想像力豊かなビデオシーンを生成する能力を持つモデルであり、さまざまなビデオコンテンツの生成に対応しています。ドキュメントでは、Soraのサポートする機能、動作方法、プロンプトのベストプラクティス、制限事項、責任あるAIの使用について詳述されています。
特に、ビデオ生成は非同期プロセスであり、ユーザーはジョブリクエストを作成し、生成したビデオをダウンロードするためのURLを取得することができます。また、技術的な制限も詳しく説明されており、解像度やビデオの長さ、ジョブの並行実行数などが明記されています。さらに、安全性に関する対策として、コンテンツフィルタリングや悪用監視、敏感なコンテンツのブロック機能が強調されています。この新しいドキュメントは、ユーザーにとってSoraの利用をより理解しやすくし、強力なビデオ生成の機会を提供します。
articles/ai-services/openai/how-to/batch.md
Diff
@@ -6,7 +6,7 @@ manager: nitinme
ms.service: azure-ai-openai
ms.custom: references_regions
ms.topic: how-to
-ms.date: 04/14/2025
+ms.date: 05/28/2025
author: mrbullwinkle
ms.author: mbullwin
recommendations: false
Summary
{
"modification_type": "minor update",
"modification_title": "日付の更新"
}
Explanation
この変更では、Azure OpenAIに関する「バッチ」ドキュメントの最終更新日が変更されました。具体的には、日付が「2025年4月14日」から「2025年5月28日」に修正されました。この更新は、ドキュメントの内容が最近更新されたことを反映しており、ユーザーが最新の情報を得やすくするためのものです。全体的には、ドキュメントのバージョン管理を行い、正確な日付が提供されることで、ユーザーが信頼できる情報を参照できるようになっています。
articles/ai-services/openai/how-to/provisioned-throughput-onboarding.md
Diff
@@ -3,7 +3,7 @@ title: Understanding costs associated with provisioned throughput units (PTU)
description: Learn about provisioned throughput costs and billing in Azure OpenAI.
ms.service: azure-ai-openai
ms.topic: conceptual
-ms.date: 05/20/2025
+ms.date: 05/28/2025
manager: nitinme
author: aahill
ms.author: aahi
@@ -77,14 +77,14 @@ The amount of throughput (measured in tokens per minute or TPM) a deployment get
For example, for `gpt-4.1:2025-04-14`, 1 output token counts as 4 input tokens towards your utilization limit which matches the [pricing](https://azure.microsoft.com/pricing/details/cognitive-services/openai-service/). Older models use a different ratio and for a deeper understanding on how different ratios of input and output tokens impact the throughput your workload needs, see the [Azure OpenAI capacity calculator](https://ai.azure.com/resource/calculator).
-|Topic| **gpt-4.1** | **gpt-4.1-mini** | **gpt-4.1-nano** | **o3** | **o3-mini** | **o1** | **gpt-4o** | **gpt-4o-mini** |
-| --- | --- | --- | --- | --- | --- | --- | --- | --- |
-|Global & data zone provisioned minimum deployment|15|15| 15 | 15 |15|15|15|15|
-|Global & data zone provisioned scale increment|5|5| 5 | 5 |5|5|5|5|
-|Regional provisioned minimum deployment|50|25| 25 |50 | 25|25|50|25|
-|Regional provisioned scale increment|50|25| 25 | 50 | 25|50|50|25|
-|Input TPM per PTU|3,000|14,900| 59,400 | 600 | 2,500|230|2,500|37,000|
-|Latency Target Value|44 Tokens Per Second|50 Tokens Per Second| 50 Tokens Per Second | 40 Tokens Per Second | 66 Tokens Per Second |25 Tokens Per Second|25 Tokens Per Second|33 Tokens Per Second|
+|Topic| **o4-mini** | **gpt-4.1** | **gpt-4.1-mini** | **gpt-4.1-nano** | **o3** | **o3-mini** | **o1** | **gpt-4o** | **gpt-4o-mini** |
+| --- | --- | --- | --- | --- | --- | --- | --- | --- | --- |
+|Global & data zone provisioned minimum deployment| 15 | 15|15| 15 | 15 |15|15|15|15|
+|Global & data zone provisioned scale increment| 5 | 5|5| 5 | 5 |5|5|5|5|
+|Regional provisioned minimum deployment|25| 50|25| 25 |50 | 25|25|50|25|
+|Regional provisioned scale increment|25| 50|25| 25 | 50 | 25|50|50|25|
+|Input TPM per PTU|5,400 | 3,000|14,900| 59,400 | 600 | 2,500|230|2,500|37,000|
+|Latency Target Value| 66 Tokens Per Second | 40 Tokens Per Second|50 Tokens Per Second| 60 Tokens Per Second | 40 Tokens Per Second | 66 Tokens Per Second |25 Tokens Per Second|25 Tokens Per Second|33 Tokens Per Second|
For a full list, see the [Azure OpenAI in Azure AI Foundry Models in Azure AI Foundry portal calculator](https://ai.azure.com/resource/calculator).
Summary
{
"modification_type": "minor update",
"modification_title": "プロビジョニングスループットに関する内容の更新"
}
Explanation
この変更では、Azure OpenAIにおけるプロビジョニングスループットのオンボーディングに関するドキュメントが更新されました。具体的には、ドキュメントの最終更新日が「2025年5月20日」から「2025年5月28日」に変更されただけでなく、プロビジョニングスループット単位(PTU)に関連したトピックの内容も含めて修正されました。
特に、表形式でのデータが追加され、新しいモデルに関するスループット性能、出力トークン当たりの入力トークンの比率、および各モデルに対する最低およびスケール増分の条件が詳述されています。これにより、ユーザーがさまざまなモデルの性能を理解しやすくなり、プロビジョニングスループットのコストをより効果的に管理できるようになります。この更新は、Azure OpenAIサービスを利用する開発者にとって重要な情報となります。
articles/ai-services/openai/includes/api-versions/new-inference-preview.md
Diff
@@ -1050,6 +1050,347 @@ Returns a list of input items for a given response.
|:---|:---|:---|
|application/json | [AzureErrorResponse](#azureerrorresponse) | |
+## Video generation jobs - Create
+
+```HTTP
+POST {endpoint}/openai/v1/video/generations/jobs?api-version=preview
+```
+
+### URI Parameters
+
+| Name | In | Required | Type | Description |
+|------|------|----------|------|-----------|
+| endpoint | path | Yes | string<br>url | Supported Azure OpenAI endpoints (protocol and hostname, for example: `https://aoairesource.openai.azure.com`. Replace "aoairesource" with your Azure OpenAI resource name). https://{your-resource-name}.openai.azure.com |
+| api-version | query | No | | The explicit Azure AI Foundry Models API version to use for this request.<br>`latest` if not otherwise specified. |
+
+### Request Header
+
+**Use either token based authentication or API key. Authenticating with token based authentication is recommended and more secure.**
+
+| Name | Required | Type | Description |
+| --- | --- | --- | --- |
+| Authorization | True | string | **Example:** `Authorization: Bearer {Azure_OpenAI_Auth_Token}`<br><br>**To generate an auth token using Azure CLI: `az account get-access-token --resource https://cognitiveservices.azure.com`**<br><br>Type: oauth2<br>Authorization Url: `https://login.microsoftonline.com/common/oauth2/v2.0/authorize`<br>scope: `https://cognitiveservices.azure.com/.default`|
+| api-key | True | string | Provide Azure OpenAI API key here |
+
+### Request Body
+
+**Content-Type**: application/json
+
+| Name | Type | Description | Required | Default |
+|------|------|-------------|----------|---------|
+| height | integer | The height of the video. The following dimensions are supported: 480x480, 480x854, 854x480, 720x720, 720x1280, 1280x720, 1080x1080, 1080x1920, 1920x1080. | Yes | |
+| model | string | The name of the deployment to use for this request. | Yes | |
+| n_seconds | integer | The duration of the video generation job. Must be between 1 and 20 seconds. | No | 5 |
+| n_variants | integer | The number of videos to create as variants for this job. Must be between 1 and 5. Smaller dimensions allow more variants. | No | 1 |
+| prompt | string | The prompt for this video generation job. | Yes | |
+| width | integer | The width of the video. The following dimensions are supported: 480x480, 480x854, 854x480, 720x720, 720x1280, 1280x720, 1080x1080, 1080x1920, 1920x1080. | Yes | |
+
+### Responses
+
+**Status Code:** 200
+
+**Description**: The request has succeeded.
+
+|**Content-Type**|**Type**|**Description**|
+|:---|:---|:---|
+|application/json | [VideoGenerationJob](#videogenerationjob) | |
+
+**Status Code:** default
+
+**Description**: An unexpected error response.
+
+|**Content-Type**|**Type**|**Description**|
+|:---|:---|:---|
+|application/json | [AzureOpenAIVideoGenerationErrorResponse](#azureopenaivideogenerationerrorresponse) | |
+
+### Examples
+
+### Example
+
+Create a video generation job
+
+```HTTP
+POST {endpoint}/openai/v1/video/generations/jobs?api-version=preview
+
+{
+ "prompt": "A cat playing piano in a jazz bar.",
+ "model": "video-gen-001"
+}
+
+```
+
+**Responses**:
+Status Code: 200
+
+```json
+{
+ "body": {
+ "id": "vidjob_1234567890",
+ "object": "video_generation_job",
+ "created": 1680000000,
+ "status": "queued",
+ "prompt": "A cat playing piano in a jazz bar.",
+ "model": "video-gen-001"
+ }
+}
+```
+
+## Video generation jobs - List
+
+```HTTP
+GET {endpoint}/openai/v1/video/generations/jobs?api-version=preview
+```
+
+
+
+### URI Parameters
+
+| Name | In | Required | Type | Description |
+|------|------|----------|------|-----------|
+| endpoint | path | Yes | string<br>url | Supported Azure OpenAI endpoints (protocol and hostname, for example: `https://aoairesource.openai.azure.com`. Replace "aoairesource" with your Azure OpenAI resource name). https://{your-resource-name}.openai.azure.com |
+| api-version | query | No | | The explicit Azure AI Foundry Models API version to use for this request.<br>`latest` if not otherwise specified. |
+| before | query | No | string | |
+| after | query | No | string | |
+| limit | query | Yes | integer | |
+| statuses | query | No | array | |
+
+### Request Header
+
+**Use either token based authentication or API key. Authenticating with token based authentication is recommended and more secure.**
+
+| Name | Required | Type | Description |
+| --- | --- | --- | --- |
+| Authorization | True | string | **Example:** `Authorization: Bearer {Azure_OpenAI_Auth_Token}`<br><br>**To generate an auth token using Azure CLI: `az account get-access-token --resource https://cognitiveservices.azure.com`**<br><br>Type: oauth2<br>Authorization Url: `https://login.microsoftonline.com/common/oauth2/v2.0/authorize`<br>scope: `https://cognitiveservices.azure.com/.default`|
+| api-key | True | string | Provide Azure OpenAI API key here |
+
+### Responses
+
+**Status Code:** 200
+
+**Description**: The request has succeeded.
+
+|**Content-Type**|**Type**|**Description**|
+|:---|:---|:---|
+|application/json | [VideoGenerationJobList](#videogenerationjoblist) | |
+
+**Status Code:** default
+
+**Description**: An unexpected error response.
+
+|**Content-Type**|**Type**|**Description**|
+|:---|:---|:---|
+|application/json | [AzureOpenAIVideoGenerationErrorResponse](#azureopenaivideogenerationerrorresponse) | |
+
+## Video generation jobs - Get
+
+```HTTP
+GET {endpoint}/openai/v1/video/generations/jobs/{job-id}?api-version=preview
+```
+
+
+
+### URI Parameters
+
+| Name | In | Required | Type | Description |
+|------|------|----------|------|-----------|
+| endpoint | path | Yes | string<br>url | Supported Azure OpenAI endpoints (protocol and hostname, for example: `https://aoairesource.openai.azure.com`. Replace "aoairesource" with your Azure OpenAI resource name). https://{your-resource-name}.openai.azure.com |
+| api-version | query | No | | The explicit Azure AI Foundry Models API version to use for this request.<br>`latest` if not otherwise specified. |
+| job-id | path | Yes | string | The ID of the video generation job to use for the Azure OpenAI request. |
+
+### Request Header
+
+**Use either token based authentication or API key. Authenticating with token based authentication is recommended and more secure.**
+
+| Name | Required | Type | Description |
+| --- | --- | --- | --- |
+| Authorization | True | string | **Example:** `Authorization: Bearer {Azure_OpenAI_Auth_Token}`<br><br>**To generate an auth token using Azure CLI: `az account get-access-token --resource https://cognitiveservices.azure.com`**<br><br>Type: oauth2<br>Authorization Url: `https://login.microsoftonline.com/common/oauth2/v2.0/authorize`<br>scope: `https://cognitiveservices.azure.com/.default`|
+| api-key | True | string | Provide Azure OpenAI API key here |
+
+### Responses
+
+**Status Code:** 200
+
+**Description**: The request has succeeded.
+
+|**Content-Type**|**Type**|**Description**|
+|:---|:---|:---|
+|application/json | [VideoGenerationJob](#videogenerationjob) | |
+
+**Status Code:** default
+
+**Description**: An unexpected error response.
+
+|**Content-Type**|**Type**|**Description**|
+|:---|:---|:---|
+|application/json | [AzureOpenAIVideoGenerationErrorResponse](#azureopenaivideogenerationerrorresponse) | |
+
+## Video generation jobs - Delete
+
+```HTTP
+DELETE {endpoint}/openai/v1/video/generations/jobs/{job-id}?api-version=preview
+```
+
+### URI Parameters
+
+| Name | In | Required | Type | Description |
+|------|------|----------|------|-----------|
+| endpoint | path | Yes | string<br>url | Supported Azure OpenAI endpoints (protocol and hostname, for example: `https://aoairesource.openai.azure.com`. Replace "aoairesource" with your Azure OpenAI resource name). https://{your-resource-name}.openai.azure.com |
+| api-version | query | No | | The explicit Azure AI Foundry Models API version to use for this request.<br>`latest` if not otherwise specified. |
+| job-id | path | Yes | string | The ID of the video generation job to use for the Azure OpenAI request. |
+
+### Request Header
+
+**Use either token based authentication or API key. Authenticating with token based authentication is recommended and more secure.**
+
+| Name | Required | Type | Description |
+| --- | --- | --- | --- |
+| Authorization | True | string | **Example:** `Authorization: Bearer {Azure_OpenAI_Auth_Token}`<br><br>**To generate an auth token using Azure CLI: `az account get-access-token --resource https://cognitiveservices.azure.com`**<br><br>Type: oauth2<br>Authorization Url: `https://login.microsoftonline.com/common/oauth2/v2.0/authorize`<br>scope: `https://cognitiveservices.azure.com/.default`|
+| api-key | True | string | Provide Azure OpenAI API key here |
+
+### Responses
+
+**Status Code:** 204
+
+**Description**: There is no content to send for this request, but the headers may be useful.
+
+**Status Code:** default
+
+**Description**: An unexpected error response.
+
+|**Content-Type**|**Type**|**Description**|
+|:---|:---|:---|
+|application/json | [AzureOpenAIVideoGenerationErrorResponse](#azureopenaivideogenerationerrorresponse) | |
+
+## Video generations - Get
+
+```HTTP
+GET {endpoint}/openai/v1/video/generations/{generation-id}?api-version=preview
+```
+
+
+
+### URI Parameters
+
+| Name | In | Required | Type | Description |
+|------|------|----------|------|-----------|
+| endpoint | path | Yes | string<br>url | Supported Azure OpenAI endpoints (protocol and hostname, for example: `https://aoairesource.openai.azure.com`. Replace "aoairesource" with your Azure OpenAI resource name). https://{your-resource-name}.openai.azure.com |
+| api-version | query | No | | The explicit Azure AI Foundry Models API version to use for this request.<br>`latest` if not otherwise specified. |
+| generation-id | path | Yes | string | The ID of the video generation to use for the Azure OpenAI request. |
+
+### Request Header
+
+**Use either token based authentication or API key. Authenticating with token based authentication is recommended and more secure.**
+
+| Name | Required | Type | Description |
+| --- | --- | --- | --- |
+| Authorization | True | string | **Example:** `Authorization: Bearer {Azure_OpenAI_Auth_Token}`<br><br>**To generate an auth token using Azure CLI: `az account get-access-token --resource https://cognitiveservices.azure.com`**<br><br>Type: oauth2<br>Authorization Url: `https://login.microsoftonline.com/common/oauth2/v2.0/authorize`<br>scope: `https://cognitiveservices.azure.com/.default`|
+| api-key | True | string | Provide Azure OpenAI API key here |
+
+### Responses
+
+**Status Code:** 200
+
+**Description**: The request has succeeded.
+
+|**Content-Type**|**Type**|**Description**|
+|:---|:---|:---|
+|application/json | [VideoGeneration](#videogeneration) | |
+
+**Status Code:** default
+
+**Description**: An unexpected error response.
+
+|**Content-Type**|**Type**|**Description**|
+|:---|:---|:---|
+|application/json | [AzureOpenAIVideoGenerationErrorResponse](#azureopenaivideogenerationerrorresponse) | |
+
+## Video generations - Retrieve thumbnail
+
+```HTTP
+GET {endpoint}/openai/v1/video/generations/{generation-id}/content/thumbnail?api-version=preview
+```
+
+
+
+### URI Parameters
+
+| Name | In | Required | Type | Description |
+|------|------|----------|------|-----------|
+| endpoint | path | Yes | string<br>url | Supported Azure OpenAI endpoints (protocol and hostname, for example: `https://aoairesource.openai.azure.com`. Replace "aoairesource" with your Azure OpenAI resource name). https://{your-resource-name}.openai.azure.com |
+| api-version | query | No | | The explicit Azure AI Foundry Models API version to use for this request.<br>`latest` if not otherwise specified. |
+| generation-id | path | Yes | string | The ID of the video generation to use for the Azure OpenAI request. |
+| If-Modified-Since | header | No | string | Timestamp formatted as GMT time |
+
+### Request Header
+
+**Use either token based authentication or API key. Authenticating with token based authentication is recommended and more secure.**
+
+| Name | Required | Type | Description |
+| --- | --- | --- | --- |
+| Authorization | True | string | **Example:** `Authorization: Bearer {Azure_OpenAI_Auth_Token}`<br><br>**To generate an auth token using Azure CLI: `az account get-access-token --resource https://cognitiveservices.azure.com`**<br><br>Type: oauth2<br>Authorization Url: `https://login.microsoftonline.com/common/oauth2/v2.0/authorize`<br>scope: `https://cognitiveservices.azure.com/.default`|
+| api-key | True | string | Provide Azure OpenAI API key here |
+
+### Responses
+
+**Status Code:** 200
+
+**Description**: The request has succeeded.
+
+|**Content-Type**|**Type**|**Description**|
+|:---|:---|:---|
+|application/json | string | |
+
+**Status Code:** default
+
+**Description**: An unexpected error response.
+
+|**Content-Type**|**Type**|**Description**|
+|:---|:---|:---|
+|application/json | [AzureOpenAIVideoGenerationErrorResponse](#azureopenaivideogenerationerrorresponse) | |
+
+## Video generations - Retrieve video
+
+```HTTP
+GET {endpoint}/openai/v1/video/generations/{generation-id}/content/video?api-version=preview
+```
+
+### URI Parameters
+
+| Name | In | Required | Type | Description |
+|------|------|----------|------|-----------|
+| endpoint | path | Yes | string<br>url | Supported Azure OpenAI endpoints (protocol and hostname, for example: `https://aoairesource.openai.azure.com`. Replace "aoairesource" with your Azure OpenAI resource name). https://{your-resource-name}.openai.azure.com |
+| api-version | query | No | | The explicit Azure AI Foundry Models API version to use for this request.<br>`latest` if not otherwise specified. |
+| generation-id | path | Yes | string | The ID of the video generation to use for the Azure OpenAI request. |
+| If-Modified-Since | header | No | string | |
+| quality | query | No | | |
+
+### Request Header
+
+**Use either token based authentication or API key. Authenticating with token based authentication is recommended and more secure.**
+
+| Name | Required | Type | Description |
+| --- | --- | --- | --- |
+| Authorization | True | string | **Example:** `Authorization: Bearer {Azure_OpenAI_Auth_Token}`<br><br>**To generate an auth token using Azure CLI: `az account get-access-token --resource https://cognitiveservices.azure.com`**<br><br>Type: oauth2<br>Authorization Url: `https://login.microsoftonline.com/common/oauth2/v2.0/authorize`<br>scope: `https://cognitiveservices.azure.com/.default`|
+| api-key | True | string | Provide Azure OpenAI API key here |
+
+### Responses
+
+**Status Code:** 200
+
+**Description**: The request has succeeded.
+
+|**Content-Type**|**Type**|**Description**|
+|:---|:---|:---|
+|application/json | string | |
+
+**Status Code:** default
+
+**Description**: An unexpected error response.
+
+|**Content-Type**|**Type**|**Description**|
+|:---|:---|:---|
+|application/json | [AzureOpenAIVideoGenerationErrorResponse](#azureopenaivideogenerationerrorresponse) | |
+
## Components
### AudioTaskLabel
@@ -1805,6 +2146,19 @@ The configuration information for an audio transcription request.
| └─ output_tokens | integer | The number of image tokens in the output image. | No | |
| └─ total_tokens | integer | The total number of tokens (images and text) used for the image generation. | No | |
+### AzureOpenAIVideoGenerationErrorResponse
+
+| Name | Type | Description | Required | Default |
+|------|------|-------------|----------|---------|
+| code | string | The distinct, machine-generated identifier for the error. | No | |
+| inner_error | object | If applicable, an upstream error that originated this error. | No | |
+| └─ code | enum | The code associated with the inner error.<br>Possible values: `ResponsibleAIPolicyViolation` | No | |
+| └─ error_details | object | | No | |
+| └─ revised_prompt | string | If applicable, the modified prompt used for generation. | No | |
+| message | string | A human-readable message associated with the error. | No | |
+| param | string | If applicable, the request input parameter associated with the error | No | |
+| type | string | If applicable, the input line number associated with the error. | No | |
+
### AzureResponse
| Name | Type | Description | Required | Default |
@@ -1892,6 +2246,10 @@ User security context contains several parameters that describe the application
| end_user_tenant_id | string | The Microsoft 365 tenant ID the end user belongs to. It's required when the generative AI application is multitenant. | No | |
| source_ip | string | Captures the original client's IP address. | No | |
+### AzureVideoGenerationError
+
+**Type**: object
+
### ChatCompletionMessageToolCallsItem
@@ -1914,6 +2272,17 @@ The tool calls generated by the model, such as function calls.
| └─ top_logprobs | array | | No | |
| text | string | | Yes | |
+### CreateVideoGenerationRequest
+
+| Name | Type | Description | Required | Default |
+|------|------|-------------|----------|---------|
+| height | integer | The height of the video. The following dimensions are supported: 480x480, 480x854, 854x480, 720x720, 720x1280, 1280x720, 1080x1080, 1080x1920, 1920x1080. | Yes | |
+| model | string | The name of the deployment to use for this request. | Yes | |
+| n_seconds | integer | The duration of the video generation job. Must be between 1 and 20 seconds. | No | 5 |
+| n_variants | integer | The number of videos to create as variants for this job. Must be between 1 and 5. Smaller dimensions allow more variants. | No | 1 |
+| prompt | string | The prompt for this video generation job. | Yes | |
+| width | integer | The width of the video. The following dimensions are supported: 480x480, 480x854, 854x480, 720x720, 720x1280, 1280x720, 1080x1080, 1080x1920, 1920x1080. | Yes | |
+
### ElasticsearchChatDataSource
| Name | Type | Description | Required | Default |
@@ -4738,3 +5107,46 @@ both text and audio responses, you can use:
### SpeechGenerationResponseFormat
The supported audio output formats for text-to-speech.
+
+### VideoGeneration
+
+| Name | Type | Description | Required | Default |
+|------|------|-------------|----------|---------|
+| created_at | integer | The time when the video generation was created. | Yes | |
+| height | integer | The height of the video. | Yes | |
+| id | string | The id of the video generation. | Yes | |
+| job_id | string | The id of the video generation job for this video. | Yes | |
+| n_seconds | integer | The duration of the video generation. | Yes | |
+| object | enum | <br>Possible values: `video.generation` | Yes | |
+| prompt | string | The prompt for this video generation. | Yes | |
+| width | integer | The width of the video. | Yes | |
+
+### VideoGenerationJob
+
+| Name | Type | Description | Required | Default |
+|------|------|-------------|----------|---------|
+| created_at | integer | The time when the job was created. | Yes | |
+| expires_at | integer | The Unix timestamp (in seconds) for when the job gets deleted from the server. The video content and metadata of the job should be stored before this date to avoid data loss. The default and maximum range is 24 hours from the job completion timestamp. | No | |
+| failure_reason | string (see valid models below) | | No | |
+| finished_at | integer | The time when the job finished with all video generations. | No | |
+| generations | array | The generated videos for this job. The number depends on the given n_variants and the creation success of the generations. | No | |
+| height | integer | The height of the video. | Yes | |
+| id | string | The id of the job. | Yes | |
+| model | string | The name of the deployment to use for this video generation job. | Yes | |
+| n_seconds | integer | The duration of the video generation job. | Yes | |
+| n_variants | integer | The number of videos to create as variants for this video generation job. | Yes | |
+| object | enum | <br>Possible values: `video.generation.job` | Yes | |
+| prompt | string | The prompt for this video generation job. | Yes | |
+| status | object | | Yes | |
+| width | integer | The height of the video. | Yes | |
+
+### VideoGenerationJobList
+
+| Name | Type | Description | Required | Default |
+|------|------|-------------|----------|---------|
+| data | array | | Yes | |
+| first_id | string | | No | |
+| has_more | boolean | | Yes | |
+| last_id | string | | No | |
+| object | enum | <br>Possible values: `list` | Yes | |
+
Summary
{
"modification_type": "new feature",
"modification_title": "動画生成ジョブに関する新機能の追加"
}
Explanation
この変更では、新たにAzure OpenAIの動画生成機能に関する詳細なドキュメントが追加されました。具体的には、動画生成ジョブの作成、リスト表示、取得、削除、そして動画のサムネイル取得に関するAPIエンドポイントが説明されています。
各セクションでは、HTTPメソッド、URIパラメータ、リクエストヘッダー、リクエストボディ、そしてレスポンス形式が詳細に記載されています。例えば、動画生成ジョブを作成するためのPOSTリクエストの具体例とともに、ビデオの高さや幅、その他の設定を指定する方法が説明されています。また、レスポンスの成功コードとエラーコードについても情報が提供され、APIの使用に際しての全体的なガイダンスが強化されています。
この新機能追加により、開発者は特定のニーズに基づいて動画生成を行うためのインターフェースを利用できるようになり、Azure OpenAIサービスの適用範囲が拡大します。これにより、特にマルチメディアコンテンツの生成において新たな可能性が広がることが期待されます。
articles/ai-services/openai/includes/model-matrix/global-batch-datazone.md
Diff
@@ -10,16 +10,17 @@ ms.date: 02/14/2025
---
-| **Region** | **o3-mini**, **2025-01-31** | **gpt-4o**, **2024-08-06** | **gpt-4o-mini**, **2024-07-18** |
-|:-------------------|:---------------------------:|:--------------------------:|:-------------------------------:|
-| eastus | ✅ | ✅ | ✅ |
-| eastus2 | ✅ | ✅ | ✅ |
-| francecentral | - | ✅ | ✅ |
-| germanywestcentral | - | ✅ | ✅ |
-| northcentralus | ✅ | ✅ | ✅ |
-| polandcentral | - | ✅ | ✅ |
-| southcentralus | ✅ | ✅ | ✅ |
-| swedencentral | - | ✅ | ✅ |
-| westeurope | - | ✅ | ✅ |
-| westus | ✅ | ✅ | ✅ |
-| westus3 | ✅ | ✅ | ✅ |
\ No newline at end of file
+| **Region** | **o4-mini**, **2025-04-16** | **gpt-4.1**, **2025-04-14** | **gpt-4.1-nano**, **2025-04-14** | **gpt-4.1-mini**, **2025-04-14** | **o3-mini**, **2025-01-31** | **gpt-4o**, **2024-08-06** | **gpt-4o-mini**, **2024-07-18** |
+|:-------------------|:---------------------------:|:---------------------------:|:--------------------------------:|:--------------------------------:|:---------------------------:|:--------------------------:|:-------------------------------:|
+| eastus | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| eastus2 | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| francecentral | ✅ | ✅ | ✅ | ✅ | - | ✅ | ✅ |
+| germanywestcentral | ✅ | ✅ | ✅ | ✅ | - | ✅ | ✅ |
+| northcentralus | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| polandcentral | ✅ | ✅ | ✅ | ✅ | - | ✅ | ✅ |
+| southcentralus | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| spaincentral | ✅ | ✅ | ✅ | ✅ | - | - | - |
+| swedencentral | ✅ | ✅ | ✅ | ✅ | - | ✅ | ✅ |
+| westeurope | ✅ | ✅ | ✅ | ✅ | - | ✅ | ✅ |
+| westus | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| westus3 | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
Summary
{
"modification_type": "minor update",
"modification_title": "モデルマトリックスの地域サポートの更新"
}
Explanation
この変更では、Azure OpenAIのモデルマトリックスにある地域サポート表が更新されました。具体的には、さまざまなモデルの提供状況が追加され、一部の地域における新しいモデル特性やサポートが明示されています。
表では、新たに「o4-mini」「gpt-4.1」「gpt-4.1-nano」「gpt-4.1-mini」といったモデルが導入され、それぞれのモデルに対してサポートされる地域がリストアップされています。これにより、ユーザーは各モデルがどの地域で使用可能かを簡単に確認できるようになり、特に地域に依存するサービス計画やインフラストラクチャの構成に役立ちます。また、変更に伴い、一部の地域のサポート状況が更新されたことも反映されています。
この更新は、開発者や管理者がAzure OpenAIモデルを適切な地域で活用するための重要な情報を提供し、サービス利用を最適化するための助けとなります。
articles/ai-services/openai/includes/model-matrix/global-batch.md
Diff
@@ -6,30 +6,32 @@ manager: nitinme
ms.service: azure-ai-openai
ms.topic: include
ms.custom: references_regions
-ms.date: 04/21/2025
+ms.date: 05/28/2025
---
-| **Region** | **o3-mini**, **2025-01-31** | **gpt-4o**, **2024-05-13** | **gpt-4o**, **2024-08-06** | **gpt-4o**, **2024-11-20** | **gpt-4o-mini**, **2024-07-18** |
-|:-------------------|:---------------------------:|:--------------------------:|:--------------------------:|:--------------------------:|:-------------------------------:|
-| australiaeast | ✅ | ✅ | ✅ | ✅ | ✅ |
-| brazilsouth | ✅ | ✅ | ✅ | ✅ | ✅ |
-| canadaeast | ✅ | ✅ | ✅ | ✅ | ✅ |
-| eastus | ✅ | ✅ | ✅ | ✅ | ✅ |
-| eastus2 | ✅ | ✅ | ✅ | ✅ | ✅ |
-| francecentral | ✅ | ✅ | ✅ | ✅ | ✅ |
-| germanywestcentral | ✅ | ✅ | ✅ | ✅ | ✅ |
-| japaneast | ✅ | ✅ | ✅ | ✅ | ✅ |
-| koreacentral | ✅ | ✅ | ✅ | ✅ | ✅ |
-| northcentralus | ✅ | ✅ | ✅ | ✅ | ✅ |
-| norwayeast | ✅ | ✅ | ✅ | ✅ | ✅ |
-| polandcentral | ✅ | ✅ | ✅ | ✅ | ✅ |
-| southafricanorth | ✅ | ✅ | ✅ | ✅ | ✅ |
-| southcentralus | ✅ | ✅ | ✅ | ✅ | ✅ |
-| southindia | ✅ | ✅ | ✅ | ✅ | ✅ |
-| swedencentral | ✅ | ✅ | ✅ | ✅ | ✅ |
-| switzerlandnorth | ✅ | ✅ | ✅ | ✅ | ✅ |
-| uksouth | ✅ | ✅ | ✅ | ✅ | ✅ |
-| westeurope | ✅ | ✅ | ✅ | ✅ | ✅ |
-| westus | ✅ | ✅ | ✅ | ✅ | ✅ |
-| westus3 | ✅ | ✅ | ✅ | ✅ | ✅ |
+
+| **Region** | **o3**, **2025-04-16** | **o4-mini**, **2025-04-16** | **gpt-4.1**, **2025-04-14** | **gpt-4.1-nano**, **2025-04-14** | **gpt-4.1-mini**, **2025-04-14** | **o3-mini**, **2025-01-31** | **gpt-4o**, **2024-05-13** | **gpt-4o**, **2024-08-06** | **gpt-4o**, **2024-11-20** | **gpt-4o-mini**, **2024-07-18** |
+|:-------------------|:----------------------:|:---------------------------:|:---------------------------:|:--------------------------------:|:--------------------------------:|:---------------------------:|:--------------------------:|:--------------------------:|:--------------------------:|:-------------------------------:|
+| australiaeast | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| brazilsouth | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| canadaeast | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| eastus | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| eastus2 | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| francecentral | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| germanywestcentral | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| japaneast | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| koreacentral | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| northcentralus | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| norwayeast | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| polandcentral | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| southafricanorth | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| southcentralus | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| southindia | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| spaincentral | ✅ | ✅ | ✅ | ✅ | ✅ | - | - | - | - | - |
+| swedencentral | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| switzerlandnorth | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| uksouth | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| westeurope | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| westus | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
+| westus3 | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
Summary
{
"modification_type": "minor update",
"modification_title": "モデルマトリックスのグローバルバッチの更新"
}
Explanation
この変更では、Azure OpenAIのグローバルバッチモデルマトリックスが更新されました。具体的には、モデルのバージョンと地域の支援状況が調整され、いくつかの新しいモデルの情報が追加されています。新たに追加されたモデルには「o3」「o4-mini」「gpt-4.1」「gpt-4.1-nano」「gpt-4.1-mini」が含まれています。
表の形式は保持されており、各地域における新しいモデルのサポート状況が示されています。 例えば、オーストラリア東部、ブラジル南部、カナダ東部など、さまざまな地域でこれらの新モデルが利用可能であることが確認できます。この更新により、開発者やデータサイエンティストは自分たちのビジネスニーズに応じて最適なモデルを選択できるようになります。
全体として、この変更はモデルのバージョンや網羅的な地域サポートに関する最新情報を提供し、ユーザーがAzure OpenAIを効率的に活用できるようにするものです。
articles/ai-services/openai/includes/video-generation-intro.md
Diff
@@ -0,0 +1,12 @@
+---
+manager: nitinme
+author: eric-urban
+ms.author: eur
+ms.service: azure-ai-openai
+ms.topic: include
+ms.date: 5/29/2025
+---
+
+In this quickstart, you generate video clips using the Azure OpenAI service. The example uses the Sora model, which is a video generation model that creates realistic and imaginative video scenes from text instructions. This guide shows you how to create a video generation job, poll for its status, and retrieve the generated video.
+
+For more information on video generation, see [Video generation concepts](../concepts/video-generation.md).
Summary
{
"modification_type": "new feature",
"modification_title": "動画生成のイントロダクション"
}
Explanation
この変更では、新たに「動画生成のイントロダクション」というドキュメントが追加されました。このドキュメントでは、Azure OpenAIサービスを使用して動画クリップを生成するクイックスタートガイドが提供されています。特に、Soraモデルを使用した具体的な例を通じて、テキスト指示からリアルで創造的な動画シーンを作成する方法が説明されています。
ドキュメントの内容には、動画生成ジョブの作成、ジョブのステータスのポーリング、および生成された動画の取得に関する詳細な手順が含まれています。また、動画生成に関するさらに具体的な情報については、関連する「動画生成の概念」ドキュメントへのリンクも提供されています。
この機能の追加により、ユーザーはAzureの動画生成機能を簡単に利用できるようになり、特にクリエイティブなアプリケーションやプロジェクトにおける活用が見込まれます。
articles/ai-services/openai/includes/video-generation-rest.md
Diff
@@ -0,0 +1,251 @@
+---
+manager: nitinme
+author: eric-urban
+ms.author: eur
+ms.service: azure-ai-openai
+ms.topic: include
+ms.date: 5/29/2025
+---
+
+[!INCLUDE [Video generation introduction](video-generation-intro.md)]
+
+## Prerequisites
+
+- An Azure subscription. <a href="https://azure.microsoft.com/free/ai-services" target="_blank">Create one for free</a>.
+- <a href="https://www.python.org/" target="_blank">Python 3.8 or later version</a>. We recommend using Python 3.10 or later, but having at least Python 3.8 is required. If you don't have a suitable version of Python installed, you can follow the instructions in the [VS Code Python Tutorial](https://code.visualstudio.com/docs/python/python-tutorial#_install-a-python-interpreter) for the easiest way of installing Python on your operating system.
+- An Azure OpenAI resource created in one of the supported regions. For more information about region availability, see the [models and versions documentation](/azure/ai-services/openai/concepts/models#video-generation-models).
+- Then, you need to deploy a `sora` model with your Azure OpenAI resource. For more information, see [Create a resource and deploy a model with Azure OpenAI](../how-to/create-resource.md).
+
+## Microsoft Entra ID prerequisites
+
+For the recommended keyless authentication with Microsoft Entra ID, you need to:
+- Install the [Azure CLI](/cli/azure/install-azure-cli) used for keyless authentication with Microsoft Entra ID.
+- Assign the `Cognitive Services User` role to your user account. You can assign roles in the Azure portal under **Access control (IAM)** > **Add role assignment**.
+
+## Set up
+
+1. Create a new folder `video-generation-quickstart` and go to the quickstart folder with the following command:
+
+ ```shell
+ mkdir video-generation-quickstart && cd video-generation-quickstart
+ ```
+
+1. Create a virtual environment. If you already have Python 3.10 or higher installed, you can create a virtual environment using the following commands:
+
+ # [Windows](#tab/windows)
+
+ ```bash
+ py -3 -m venv .venv
+ .venv\scripts\activate
+ ```
+
+ # [Linux](#tab/linux)
+
+ ```bash
+ python3 -m venv .venv
+ source .venv/bin/activate
+ ```
+
+ # [macOS](#tab/macos)
+
+ ```bash
+ python3 -m venv .venv
+ source .venv/bin/activate
+ ```
+
+ ---
+
+ Activating the Python environment means that when you run ```python``` or ```pip``` from the command line, you then use the Python interpreter contained in the ```.venv``` folder of your application. You can use the ```deactivate``` command to exit the python virtual environment, and can later reactivate it when needed.
+
+ > [!TIP]
+ > We recommend that you create and activate a new Python environment to use to install the packages you need for this tutorial. Don't install packages into your global python installation. You should always use a virtual or conda environment when installing python packages, otherwise you can break your global installation of Python.
+
+1. For the **recommended** keyless authentication with Microsoft Entra ID, install the `azure-identity` package with:
+
+ ```console
+ pip install azure-identity
+ ```
+
+
+## Retrieve resource information
+
+[!INCLUDE [resource authentication](resource-authentication.md)]
+
+
+## Generate video with Sora
+You can generate a video with the Sora model by creating a video generation job, polling for its status, and retrieving the generated video. The following code shows how to do this via the REST API using Python.
+
+## [Microsoft Entra ID](#tab/keyless)
+
+1. Create the `sora-quickstart.py` file with the following code:
+
+ ```python
+ import requests
+ import base64
+ import os
+ from azure.identity import DefaultAzureCredential
+
+ # Set environment variables or edit the corresponding values here.
+ endpoint = os.environ['AZURE_OPENAI_ENDPOINT']
+
+ # Keyless authentication
+ credential = DefaultAzureCredential()
+ token = credential.get_token("https://cognitiveservices.azure.com/.default")
+
+ api_version = 'preview'
+ headers= { "Authorization": f"Bearer {token.token}", "Content-Type": "application/json" }
+
+ # 1. Create a video generation job
+ create_url = f"{endpoint}/openai/v1/video/generations/jobs?api-version={api_version}"
+ body = {
+ "prompt": "A cat playing piano in a jazz bar.",
+ "width": 480,
+ "height": 480,
+ "n_seconds": 5,
+ "model": "sora"
+ }
+ response = requests.post(create_url, headers=headers, json=body)
+ response.raise_for_status()
+ print("Full response JSON:", response.json())
+ job_id = response.json()["id"]
+ print(f"Job created: {job_id}")
+
+ # 2. Poll for job status
+ status_url = f"{endpoint}/openai/v1/video/generations/jobs/{job_id}?api-version={api_version}"
+ status=None
+ while status not in ("succeeded", "failed", "cancelled"):
+ time.sleep(5) # Wait before polling again
+ status_response = requests.get(status_url, headers=headers).json()
+ status = status_response.get("status")
+ print(f"Job status: {status}")
+
+ # 3. Retrieve generated video
+ if status == "succeeded":
+ generations = status_response.get("generations", [])
+ if generations:
+ print(f"✅ Video generation succeeded.")
+ generation_id = generations[0].get("id")
+ video_url = f"{endpoint}/openai/v1/video/generations/{generation_id}/content/video?api-version={api_version}"
+ video_response = requests.get(video_url, headers=headers)
+ if video_response.ok:
+ output_filename = "output.mp4"
+ with open(output_filename, "wb") as file:
+ file.write(video_response.content)
+ print(f'Generated video saved as "{output_filename}"')
+ else:
+ raise Exception("No generations found in job result.")
+ else:
+ raise Exception(f"Job didn't succeed. Status: {status}")
+ ```
+
+1. Run the Python file.
+
+ ```shell
+ python sora-quickstart.py
+ ```
+
+## [API key](#tab/api-key)
+
+1. Create the `sora-quickstart.py` file with the following code:
+
+ ```python
+ import requests
+ import base64
+ import os
+
+ # Set environment variables or edit the corresponding values here.
+ endpoint = os.environ['AZURE_OPENAI_ENDPOINT']
+ api_key = os.environ['AZURE_OPENAI_API_KEY']
+
+ api_version = 'preview'
+ headers= { "api-key": api_key, "Content-Type": "application/json" }
+
+ # 1. Create a video generation job
+ create_url = f"{endpoint}/openai/v1/video/generations/jobs?api-version={api_version}"
+ body = {
+ "prompt": "A cat playing piano in a jazz bar.",
+ "width": 480,
+ "height": 480,
+ "n_seconds": 5,
+ "model": "sora"
+ }
+ response = requests.post(create_url, headers=headers, json=body)
+ response.raise_for_status()
+ print("Full response JSON:", response.json())
+ job_id = response.json()["id"]
+ print(f"Job created: {job_id}")
+
+ # 2. Poll for job status
+ status_url = f"{endpoint}/openai/v1/video/generations/jobs/{job_id}?api-version={api_version}"
+ status=None
+ while status not in ("succeeded", "failed", "cancelled"):
+ time.sleep(5) # Wait before polling again
+ status_response = requests.get(status_url, headers=headers).json()
+ status = status_response.get("status")
+ print(f"Job status: {status}")
+
+ # 3. Retrieve generated video
+ if status == "succeeded":
+ generations = status_response.get("generations", [])
+ if generations:
+ print(f"✅ Video generation succeeded.")
+ generation_id = generations[0].get("id")
+ video_url = f"{endpoint}/openai/v1/video/generations/{generation_id}/content/video?api-version={api_version}"
+ video_response = requests.get(video_url, headers=headers)
+ if video_response.ok:
+ output_filename = "output.mp4"
+ with open(output_filename, "wb") as file:
+ file.write(video_response.content)
+ print(f'Generated video saved as "{output_filename}"')
+ else:
+ raise Exception("No generations found in job result.")
+ else:
+ raise Exception(f"Job didn't succeed. Status: {status}")
+ ```
+
+1. Run the Python file.
+
+ ```shell
+ python sora-quickstart.py
+ ```
+
+---
+
+Wait a few moments to get the response.
+
+### Output
+
+The output will show the full response JSON from the video generation job creation request, including the job ID and status.
+
+```json
+```json
+{
+ "object": "video.generation.job",
+ "id": "task_01jwcet0eje35tc5jy54yjax5q",
+ "status": "queued",
+ "created_at": 1748469875,
+ "finished_at": null,
+ "expires_at": null,
+ "generations": [],
+ "prompt": "A cat playing piano in a jazz bar.",
+ "model": "sora",
+ "n_variants": 1,
+ "n_seconds": 5,
+ "height": 480,
+ "width": 480,
+ "failure_reason": null
+}
+```
+
+The generated video will be saved as `output.mp4` in the current directory.
+
+```text
+Job created: task_01jwcet0eje35tc5jy54yjax5q
+Job status: preprocessing
+Job status: running
+Job status: processing
+Job status: succeeded
+✅ Video generation succeeded.
+Generated video saved as "output.mp4"
+```
+
Summary
{
"modification_type": "new feature",
"modification_title": "動画生成REST APIの詳細"
}
Explanation
この変更では、「動画生成REST APIの詳細」という新しいドキュメントが追加されました。このドキュメントは、Azure OpenAIサービスを使用して動画を生成するための手順とサンプルコードを提供しています。主な内容としては、AzureサブスクリプションやPython環境の設定、Microsoft Entra IDを利用した認証方法、そして具体的なAPIリクエストの流れが含まれています。
初心者向けの準備項目として、Azureサブスクリプションの作成、Python 3.8以上のインストール、Azure OpenAIリソースの作成とSoraモデルのデプロイ方法が示されています。さらに、キーレス認証を使用するための準備として、Azure CLIのインストールや必要なロールの割り当ても説明されています。
ドキュメントでは、Pythonを用いたコード例が豊富であり、動画生成ジョブの作成、ステータスのポーリング、生成された動画の取得が具体的に示されています。また、APIキーを用いた認証による別のコードパターンも提供されており、開発者が自身の環境に合わせた実装を行いやすくなっています。
この新しいドキュメントにより、ユーザーはAzure上で動画生成機能を効果的に活用できるようになり、自分のプロジェクトやアプリケーションにおいて新たなクリエイティブな可能性を開くことが期待されます。
articles/ai-services/openai/quotas-limits.md
Diff
@@ -8,7 +8,7 @@ ms.custom:
- ignite-2023
- references_regions
ms.topic: conceptual
-ms.date: 04/23/2025
+ms.date: 05/29/2025
ms.author: mbullwin
---
@@ -26,6 +26,7 @@ The following sections provide you with a quick guide to the default quotas and
| Default DALL-E 2 quota limits | 2 concurrent requests |
| Default DALL-E 3 quota limits| 2 capacity units (6 requests per minute)|
| Default GPT-image-1 quota limits | 2 capacity units (6 requests per minute) |
+| Default Sora quota limits | 60 requests per minute |
| Default speech to text audio API quota limits | 3 requests per minute |
| Maximum prompt tokens per request | Varies per model. For more information, see [Azure OpenAI models](./concepts/models.md)|
| Max Standard deployments per resource | 32 |
@@ -43,9 +44,9 @@ The following sections provide you with a quick guide to the default quotas and
| Max number of `/chat/completions` functions | 128 |
| Max number of `/chat completions` tools | 128 |
| Maximum number of Provisioned throughput units per deployment | 100,000 |
-| Max files per Assistant/thread | 10,000 when using the API or [Azure AI Foundry portal](https://ai.azure.com/). In Azure OpenAI Studio the limit was 20.|
+| Max files per Assistant/thread | 10,000 when using the API or [Azure AI Foundry portal](https://ai.azure.com/).|
| Max file size for Assistants & fine-tuning | 512 MB<br/><br/>200 MB via [Azure AI Foundry portal](https://ai.azure.com/) |
-| Max size for all uploaded files for Assistants |100 GB |
+| Max size for all uploaded files for Assistants |200 GB |
| Assistants token limit | 2,000,000 token limit |
| GPT-4o max images per request (# of images in the messages array/conversation history) | 50 |
| GPT-4 `vision-preview` & GPT-4 `turbo-2024-04-09` default max tokens | 16 <br><br> Increase the `max_tokens` parameter value to avoid truncated responses. GPT-4o max tokens defaults to 4096. |
Summary
{
"modification_type": "minor update",
"modification_title": "クォータおよび制限に関する情報の更新"
}
Explanation
この変更では、「クォータおよび制限に関する情報」が更新されました。具体的には、いくつかのクォータが追加または修正されています。主な変更点として、次の内容が含まれています。
- ドキュメントの日付が「2025年4月23日」から「2025年5月29日」に更新され、最新の情報が反映されていることを示しています。
- 「Sora」モデルに関する新しいクォータ制限が追加され、1分あたり60リクエストの制限が明記されました。これにより、Soraモデルを使用するユーザーにとってのリソース管理がより明確になります。
- 「Assistant/threadごとの最大ファイル数」についての制限が、Azure OpenAI Studioにおいて20から削除され、APIおよびAzure AI Foundryポータルでの10,000に統一されました。
- アシスタントにアップロード可能な全ファイルの最大サイズが、100 GBから200 GBに引き上げられました。
これらの更新により、ユーザーはAzure OpenAIサービスを使用する際のクォータや制限を理解しやすくなり、リソースの適切な使用を促進することが期待されます。
articles/ai-services/openai/toc.yml
Diff
@@ -36,6 +36,8 @@ items:
href: gpt-v-quickstart.md
- name: Image generation
href: dall-e-quickstart.md
+ - name: Video generation
+ href: video-generation-quickstart.md
- name: Use your data
href: use-your-data-quickstart.md
- name: Realtime API for speech and audio (preview)
@@ -88,6 +90,8 @@ items:
href: ./concepts/fine-tuning-considerations.md
- name: Vision-enabled models
href: ./concepts/gpt-with-vision.md
+ - name: Video generation (preview)
+ href: ./concepts/video-generation.md
- name: Red teaming large language models (LLMs)
href: ./concepts/red-teaming.md
- name: Content credentials
Summary
{
"modification_type": "minor update",
"modification_title": "動画生成に関する項目の追加"
}
Explanation
この変更では、OpenAIに関連する目次ファイル「toc.yml」に動画生成に関する2つの新しい項目が追加されました。具体的には、次の内容が含まれています。
- 「Video generation」という新しいクイックスタートガイド(
video-generation-quickstart.md
)が目次に追加され、ユーザーは動画生成の手順を容易に参照できるようになりました。
- 「Video generation (preview)」という項目も追加され、関連する概念が詳しく説明された文書(
./concepts/video-generation.md
)へのリンクが提供されています。
これにより、ユーザーは動画生成機能に関する情報を簡単に見つけられるようになり、AIサービスの理解を深める手助けとなります。この更新は、Azure OpenAIサービスの利用を促進し、開発者が新機能を探索する際の利便性を向上させることを目的としています。
articles/ai-services/openai/video-generation-quickstart.md
Diff
@@ -0,0 +1,27 @@
+---
+title: 'Quickstart: Generate video with Sora'
+titleSuffix: Azure OpenAI
+description: Learn how to get started generating video clips with Azure OpenAI.
+manager: nitinme
+ms.service: azure-ai-openai
+ms.topic: quickstart
+author: PatrickFarley
+ms.author: pafarley
+ms.date: 5/29/2025
+---
+
+# Quickstart: Generate a video with Sora (preview)
+
+[!INCLUDE [REST API quickstart](includes/video-generation-rest.md)]
+
+## Clean-up resources
+
+If you want to clean up and remove an Azure OpenAI resource, you can delete the resource. Before deleting the resource, you must first delete any deployed models.
+
+- [Azure portal](../multi-service-resource.md?pivots=azportal#clean-up-resources)
+- [Azure CLI](../multi-service-resource.md?pivots=azcli#clean-up-resources)
+
+## Related content
+
+* Learn more about Azure OpenAI [deployment types](./how-to/deployment-types.md).
+* Learn more about Azure OpenAI [quotas and limits](quotas-limits.md).
\ No newline at end of file
Summary
{
"modification_type": "new feature",
"modification_title": "Soraを使用した動画生成のクイックスタートガイドの追加"
}
Explanation
この変更では、新しい文書「video-generation-quickstart.md」が追加され、Azure OpenAIを使用した動画生成に関するクイックスタートガイドが提供されています。このガイドは、ユーザーがSoraを利用して動画クリップを生成するための手順を説明しています。
具体的な内容は以下のとおりです:
- 文書のタイトル: 「Quickstart: Generate video with Sora」。
- 概要説明: Azure OpenAIを使用して動画クリップを生成する方法についての紹介が含まれています。
- クリーンアップ手順: Azure OpenAIリソースを削除したい場合の手順も記載されています。具体的には、リソースを削除する前にすべてのデプロイされたモデルを削除する必要があることが説明されています。
- 関連コンテンツ: ユーザーがさらに学ぶためのリンクも追加されており、Azure OpenAIのデプロイメントタイプやクォータと制限に関する情報が提供されています。
この新しいガイドは、動画生成機能の利用を開始するための実践的な情報を提供し、ユーザーがAzure OpenAIを活用する上での支援を強化することを目的としています。
articles/ai-services/openai/whats-new.md
Diff
@@ -20,6 +20,12 @@ This article provides a summary of the latest releases and major documentation u
## May 2025
+### Sora video generation released (preview)
+
+Sora (2025-05-02) is a video generation model from OpenAI that can create realistic and imaginative video scenes from text instructions.
+
+Follow the [Video generation quickstart](/azure/ai-services/openai/video-generation-quickstart) to get started. For more information, see the [Video generation concepts](./concepts/video-generation.md) guide.
+
### Spotlighting for prompt shields
Spotlighting is a sub-feature of prompt shields that enhances protection against indirect (embedded document) attacks by tagging input documents with special formatting to indicate lower trust to the model. For more information, see the [Prompt shields filter](./concepts/content-filter-prompt-shields.md) documentation.
Summary
{
"modification_type": "minor update",
"modification_title": "Sora動画生成モデルに関する情報の追加"
}
Explanation
この変更では、「whats-new.md」ファイルに新しい情報が追加され、OpenAIの新機能であるSora動画生成モデルに関する詳細が更新されています。具体的には、2025年5月にリリースされたSoraは、テキスト指示に基づいてリアルで想像的な動画シーンを生成できるモデルです。
追加された情報のポイントは以下の通りです:
- 新機能の紹介: Sora動画生成モデルがプレビューとしてリリースされたことが記載されています。
- モデルの特徴: Soraは、テキスト指示から現実的な動画を生成する能力について説明されています。
- クイックスタートへのリンク: ユーザーがこの機能を利用開始するためのVideo generation quickstartへリンクが提供されています。
- 関連ガイドへのリンク: より詳細な情報を得るためのVideo generation conceptsガイドへもリンクが追加されています。
この更新は、ユーザーに新しい動画生成機能を理解し、活用するための道筋を提供することを目的としています。