DEV Community

Cover image for Cách truy cập và sử dụng GPT-5.5 Instant: Hướng dẫn ChatGPT + API
Sebastian Petrus
Sebastian Petrus

Posted on • Originally published at apidog.com

Cách truy cập và sử dụng GPT-5.5 Instant: Hướng dẫn ChatGPT + API

OpenAI đã thay đổi bộ não mặc định của ChatGPT vào ngày 5 tháng 5 năm 2026, và phần lớn người dùng sẽ không nhận ra. GPT-5.5 Instant thay thế GPT-5.3 Instant, giảm 52.5% các tuyên bố sai lệch trên các lời nhắc rủi ro cao, nhưng vẫn giữ trải nghiệm phản hồi độ trễ thấp. Nếu bạn xây dựng bằng API, cùng bản nâng cấp này nằm sau model name gpt-5.5, với cửa sổ ngữ cảnh 1M-token và bảng giá theo triệu token để bạn dự trù chi phí.

Dùng thử Apidog ngay hôm nay

Bài viết này hướng dẫn cách truy cập GPT-5.5 Instant trong ChatGPT, cách nó chuyển sang GPT-5.5 Thinking, cách gọi qua API, và cách kiểm thử request trước khi đưa vào production.

Tóm tắt

GPT-5.5 Instant là model mặc định mới của ChatGPT và là tầng nhanh của dòng GPT-5.5.

  • Người dùng miễn phí: 10 tin nhắn mỗi 5 giờ
  • Plus: 160 tin nhắn mỗi 3 giờ
  • Pro/Business/Enterprise: không giới hạn, theo các biện pháp chống lạm dụng
  • API model name: gpt-5.5
  • Giá tiêu chuẩn: $5 / 1M input tokens, $30 / 1M output tokens
  • Context window: 1M tokens
  • Output tối đa: 128.000 tokens

GPT-5.5 Instant là gì?

GPT-5.5 Instant là biến thể tối ưu độ trễ của GPT-5.5. Trong ChatGPT, OpenAI cung cấp ba phiên bản:

Phiên bản Mục tiêu
Instant Phản hồi nhanh, độ trễ thấp
Thinking Lý luận sâu hơn, chậm hơn
Pro Mở rộng Thinking với nhiều compute hơn, dành cho gói trả phí

So sánh các phiên bản GPT-5.5: Instant, Thinking, Pro

Instant tồn tại vì hai lý do chính:

  1. ChatGPT có bộ định tuyến tự động, có thể nâng cấp request từ Instant sang Thinking nếu prompt đủ phức tạp.
  2. Người dùng trả phí có thể ghim Instant thủ công trong model picker để ưu tiên tốc độ.

Bộ chọn mô hình trong ChatGPT với các tùy chọn GPT-5.5 Instant, Thinking và Pro

Về năng lực nền tảng, GPT-5.5 Instant và GPT-5.5 Thinking dùng cùng kiến trúc cơ bản. Khác biệt nằm ở ngân sách lý luận, không phải giới hạn kiến thức.

Cả hai hỗ trợ:

  • Cửa sổ ngữ cảnh 1M-token
  • Tối đa 128.000 output tokens mỗi phản hồi
  • Sinh mã và debug trên các ngôn ngữ phổ biến
  • Tìm kiếm web trực tiếp thông qua công cụ tìm kiếm
  • Xử lý tệp, bao gồm PDF, hình ảnh và bảng tính
  • Bộ nhớ hội thoại trước đó trên các phiên web Plus và Pro, cùng tùy chọn ghi nhớ Gmail và tệp đã tải lên

Nếu bạn cần bức tranh đầy đủ hơn về dòng model này, xem thêm tổng quan về GPT-5.5.

💡 Nếu bạn triển khai GPT-5.5 qua API, hãy kiểm thử nó như một dependency production. Các công cụ như Apidog giúp bạn gửi request đến OpenAI Responses API, theo dõi streaming output, lưu request mẫu và so sánh gpt-5.5 với gpt-5.5-pro trước khi thay đổi code production.

Cách truy cập GPT-5.5 Instant trong ChatGPT

Cách đơn giản nhất: mở chatgpt.com, gửi tin nhắn, và bạn đã dùng GPT-5.5 Instant. OpenAI đã đặt nó làm mặc định cho Free, Plus, Pro, Business và Enterprise.

Điểm cần kiểm soát là giới hạn theo gói.

Gói Giới hạn GPT-5.5 Instant Sau khi đạt giới hạn
Miễn phí 10 tin nhắn mỗi 5 giờ Chuyển về GPT-5.5 mini
Plus 160 tin nhắn mỗi 3 giờ Chuyển về GPT-5.5 mini
Pro Không giới hạn, theo chống lạm dụng Duy trì trên GPT-5.5
Business Không giới hạn, theo chống lạm dụng Duy trì trên GPT-5.5
Enterprise Không giới hạn, theo chống lạm dụng Duy trì trên GPT-5.5

Với Plus, Pro và Business, bạn có thể mở model picker ở góc trên bên trái cửa sổ chat để chọn GPT-5.5 Instant hoặc GPT-5.5 Thinking cho lượt tiếp theo.

Lưu ý:

  • Việc ghim model áp dụng theo cuộc trò chuyện.
  • Cuộc trò chuyện mới sẽ quay về lựa chọn mặc định của bộ định tuyến.
  • Nếu cần so sánh, mở hai tab, ghim một tab vào Instant và một tab vào Thinking, rồi gửi cùng prompt.

Khi nào ChatGPT tự chuyển từ Instant sang Thinking?

Nếu bạn không ghim model, bộ định tuyến tự động của ChatGPT sẽ chọn Instant hoặc Thinking dựa trên prompt. OpenAI chưa công bố đầy đủ quy tắc định tuyến, nhưng trong thực tế, Thinking thường xuất hiện khi prompt:

  • Yêu cầu kế hoạch nhiều bước
  • Cần chuỗi tool calls
  • Có ràng buộc mơ hồ, cần quay lại kiểm tra
  • Thuộc lĩnh vực rủi ro cao như y tế, luật, tài chính
  • Có ngữ cảnh dài cần tổng hợp nhiều tài liệu

Với các tác vụ ngắn, hỏi đáp thông thường hoặc xử lý nội dung đơn giản, Instant thường là lựa chọn phù hợp hơn vì thời gian tạo token đầu tiên thấp hơn.

Cách gọi GPT-5.5 Instant qua API

Trong API, không có model riêng tên gpt-5.5-instant.

Bạn dùng:

gpt-5.5
Enter fullscreen mode Exit fullscreen mode

Sau đó điều khiển độ sâu lý luận bằng tham số reasoning.effort.

Các giá trị hỗ trợ:

minimal
low
medium
high
Enter fullscreen mode Exit fullscreen mode

Để mô phỏng GPT-5.5 Instant trong ChatGPT, đặt:

{
  "reasoning": {
    "effort": "minimal"
  }
}
Enter fullscreen mode Exit fullscreen mode

GPT-5.5 có thể được gọi qua hai endpoint:

Endpoint Khi nào dùng
Responses API /v1/responses Khuyến nghị cho dự án mới; hỗ trợ tốt cho tools, structured output và streaming
Chat Completions API /v1/chat/completions Dùng khi cần tương thích với code cũ

Giá GPT-5.5 qua API

Cấp Input ($/1M tokens) Output ($/1M tokens)
Tiêu chuẩn $5.00 $30.00
Batch $2.50 $15.00
Linh hoạt $2.50 $15.00
Ưu tiên $12.50 $75.00

Có một điểm cần chú ý: prompt có hơn 272K input tokens sẽ bị tính phí gấp đôi input và gấp 1.5 lần output cho phần còn lại của phiên, trên mọi cấp trừ Ưu tiên. Nếu bạn làm RAG với tài liệu dài, hãy chunk request cẩn thận thay vì nhồi toàn bộ tài liệu vào một lần gọi.

Xem thêm phân tích giá GPT-5.5 nếu bạn cần tính unit economics cho workload cụ thể.

Gọi GPT-5.5 Instant bằng Python

Bạn cần API key từ nền tảng OpenAI và SDK Python chính thức.

Màn hình bảng điều khiển nền tảng OpenAI với các API Keys được tô sáng.

Cài SDK:

pip install --upgrade openai
export OPENAI_API_KEY="sk-..."
Enter fullscreen mode Exit fullscreen mode

Request tối thiểu với Responses API:

from openai import OpenAI

client = OpenAI()

response = client.responses.create(
    model="gpt-5.5",
    reasoning={"effort": "minimal"},
    input=[
        {
            "role": "user",
            "content": "Tóm tắt mục changelog này trong 3 gạch đầu dòng: ..."
        }
    ],
    max_output_tokens=400,
)

print(response.output_text)
Enter fullscreen mode Exit fullscreen mode

Trong request này:

  • model="gpt-5.5" chọn dòng GPT-5.5
  • reasoning={"effort": "minimal"} ưu tiên hành vi giống Instant
  • max_output_tokens=400 giới hạn chi phí output

Khi cần lý luận sâu hơn, đổi minimal thành medium hoặc high.

Gọi GPT-5.5 Instant bằng Node.js

import OpenAI from "openai";

const client = new OpenAI();

const response = await client.responses.create({
  model: "gpt-5.5",
  reasoning: { effort: "minimal" },
  input: [
    {
      role: "user",
      content: "Dịch mô tả sản phẩm này sang tiếng Tây Ban Nha, giữ nguyên HTML: ..."
    }
  ],
  max_output_tokens: 600,
});

console.log(response.output_text);
Enter fullscreen mode Exit fullscreen mode

Nếu bạn dùng route production, nên cấu hình reasoning.effort theo từng use case thay vì để mặc định.

Ví dụ:

const effortByRoute = {
  "/support/classify": "minimal",
  "/support/escalation": "medium",
  "/security/review": "high",
};

const response = await client.responses.create({
  model: "gpt-5.5",
  reasoning: { effort: effortByRoute["/support/classify"] },
  input: [{ role: "user", content: "Phân loại ticket: ..." }],
  max_output_tokens: 300,
});
Enter fullscreen mode Exit fullscreen mode

Streaming phản hồi

Streaming giúp trải nghiệm Instant tốt hơn vì UI có thể hiển thị token ngay khi nhận được.

from openai import OpenAI

client = OpenAI()

stream = client.responses.create(
    model="gpt-5.5",
    reasoning={"effort": "minimal"},
    input=[
        {
            "role": "user",
            "content": "Soạn thảo một ghi chú phát hành cho v2.7..."
        }
    ],
    stream=True,
)

for event in stream:
    if event.type == "response.output_text.delta":
        print(event.delta, end="", flush=True)
Enter fullscreen mode Exit fullscreen mode

Nếu bạn đang chuyển từ Chat Completions sang Responses API, hãy chú ý object phản hồi khác nhau. Thuộc tính output_text giúp hợp nhất các khối output có cấu trúc thành chuỗi thuần túy, giảm việc phải tự duyệt cây JSON.

Nếu bạn cần hướng dẫn về quyền truy cập miễn phí và hạn ngạch, xem hướng dẫn truy cập miễn phí GPT-5.5.

Kiểm thử request GPT-5.5 Instant với Apidog trước khi triển khai

Notebook phù hợp để thử nghiệm nhanh. Nhưng trước khi đưa vào production, bạn cần:

  • Lưu request mẫu có thể tái tạo
  • Kiểm thử nhiều prompt
  • So sánh gpt-5.5gpt-5.5-pro
  • Theo dõi latency, token usage và output
  • Quản lý secret theo môi trường
  • Chạy test trong CI

Giao diện Apidog hiển thị các bài kiểm tra API chạy song song, với các phản hồi được tô sáng

Apidog giúp bạn xây dựng vòng lặp kiểm thử đó mà không cần viết script tạm thời.

Bước 1: Nhập OpenAI OpenAPI spec

Apidog hỗ trợ OpenAPI 3.x. Nhập spec của Responses API để có endpoint, parameter và response schema với autocomplete.

Bước 2: Lưu API key dưới dạng secret

Tạo environment secret, ví dụ:

OPENAI_API_KEY=sk-...
Enter fullscreen mode Exit fullscreen mode

Sau đó dùng trong header:

Authorization: Bearer {{OPENAI_API_KEY}}
Enter fullscreen mode Exit fullscreen mode

Cách này giúp bạn tách staging và production key, đồng thời tránh hard-code secret vào request dùng chung.

Bước 3: Tạo request mẫu cho GPT-5.5 Instant

Body mẫu:

{
  "model": "gpt-5.5",
  "reasoning": {
    "effort": "minimal"
  },
  "input": [
    {
      "role": "user",
      "content": "Tóm tắt changelog này trong 3 gạch đầu dòng: ..."
    }
  ],
  "max_output_tokens": 400
}
Enter fullscreen mode Exit fullscreen mode

Lưu request này vào project để cả team có thể chạy lại cùng một cấu hình.

Bước 4: So sánh nhiều cấu hình

Sao chép request mẫu và thay đổi:

{
  "reasoning": {
    "effort": "high"
  }
}
Enter fullscreen mode Exit fullscreen mode

Hoặc đổi model:

{
  "model": "gpt-5.5-pro"
}
Enter fullscreen mode Exit fullscreen mode

Sau đó chạy song song để so sánh:

  • Latency
  • Token usage
  • Nội dung phản hồi
  • Chất lượng câu trả lời
  • Chi phí ước tính

Bước 5: Đưa request vào test suite

Tạo assertions cho response, ví dụ:

  • HTTP status là 200
  • Có trường output
  • Output không rỗng
  • Output không vượt giới hạn token mong muốn
  • Structured output đúng schema nếu bạn dùng JSON schema

Sau đó chạy test suite từ CI để phát hiện regression khi prompt thay đổi hoặc OpenAI phát hành cập nhật model.

Bước 6: Mock endpoint cho frontend

Apidog có thể mock Responses API dựa trên OpenAPI schema. Frontend có thể phát triển dựa trên response shape ổn định trong khi backend tiếp tục tinh chỉnh prompt và reasoning effort.

Nếu bạn cần thiết lập kiểm thử API đầy đủ hơn, xem kiểm tra API cho kỹ sư QA. Bạn cũng có thể tải Apidog tại Tải xuống Apidog.

Mẹo triển khai GPT-5.5 Instant trong production

1. Ghim reasoning.effort theo route

Không phải request nào cũng cần reasoning sâu.

Ví dụ:

{
  "route": "/support/classify",
  "reasoning_effort": "minimal"
}
Enter fullscreen mode Exit fullscreen mode

Dùng minimal cho đường dẫn nóng như phân loại ticket, tóm tắt ngắn, rewrite nội dung. Dùng medium hoặc high cho escalation, phân tích lỗi phức tạp hoặc kiểm tra bảo mật.

2. Luôn đặt max_output_tokens

GPT-5.5 có thể tạo tối đa 128K output tokens. Nếu prompt vô tình yêu cầu phản hồi dài, chi phí có thể tăng nhanh.

Ví dụ:

response = client.responses.create(
    model="gpt-5.5",
    reasoning={"effort": "minimal"},
    input=[{"role": "user", "content": "Tóm tắt tài liệu này: ..."}],
    max_output_tokens=500,
)
Enter fullscreen mode Exit fullscreen mode

Hãy đặt giới hạn nhỏ nhất mà UI hoặc workflow của bạn thực sự cần.

3. Tránh vượt ngưỡng 272K input tokens nếu không cần thiết

Khi input vượt 272K tokens, chi phí phiên tăng đáng kể. Với tài liệu dài:

  • Chunk tài liệu
  • Dùng retrieval
  • Tóm tắt từng phần
  • Chỉ đưa context liên quan vào request
  • Không đẩy toàn bộ corpus vào một lần gọi nếu không cần

4. Dùng Batch cho workload offline

Batch phù hợp cho:

  • Tóm tắt báo cáo định kỳ
  • Phân loại ticket hàng loạt
  • Xử lý dữ liệu nền
  • Các tác vụ không cần phản hồi tức thì

Batch giảm chi phí một nửa và chạy trong vòng 24 giờ.

5. Dùng Priority cho request latency-sensitive

Nếu sản phẩm của bạn có SLA chặt chẽ và request hướng người dùng, Priority có thể hợp lý dù giá cao hơn. Đây là lựa chọn phù hợp cho các sản phẩm chat cạnh tranh mạnh về thời gian phản hồi.

6. Stream token đầu tiên càng sớm càng tốt

Với UI chat, perceived latency quan trọng hơn total latency. Responses API hỗ trợ stream: true, bạn có thể truyền delta events qua WebSocket hoặc SSE.

Ví dụ SSE pseudo-flow:

Client -> Backend -> OpenAI stream
Backend -> SSE -> Browser
Browser renders token deltas immediately
Enter fullscreen mode Exit fullscreen mode

Lỗi thường gặp cần tránh

  1. Dùng gpt-5.5-pro cho prompt rủi ro thấp

    Pro đắt hơn nhiều. Chỉ dùng khi độ chính xác tăng thêm đáng giá.

  2. Không đặt system prompt

    Một system prompt rõ ràng giúp giảm token thừa và tăng tính nhất quán.

  3. Không ghim reasoning.effort

    Hành vi mặc định có thể khác giữa endpoint hoặc thay đổi theo thời gian. Hãy đặt rõ để trace có thể tái tạo.

  4. Lưu API key trong source code

    Dùng environment variables, secret manager hoặc environment secret trong Apidog.

  5. Không log token usage

    Nếu bạn không đo input/output tokens theo route, rất khó tối ưu chi phí.

So sánh GPT-5.5 Instant với lựa chọn khác

GPT-5.5 Instant không phải model nhanh duy nhất. Bảng dưới đây giúp bạn định vị nhanh.

Model Input ($/1M) Output ($/1M) Context Điểm mạnh
GPT-5.5 Instant $5.00 $30.00 1M Mặc định trong ChatGPT, ít sai lệch hơn, hỗ trợ tool rộng
GPT-5.5 Pro $30.00 $180.00 1M Độ chính xác cao nhất trong dòng OpenAI
Gemini 3 Flash Preview thay đổi thay đổi 1M Đa phương thức nhanh, tích hợp Google Cloud
DeepSeek V4 thấp thấp 128K Chi phí thấp, phù hợp khi kiểm soát inference stack

Cách chọn thực tế:

  • Chọn GPT-5.5 Instant nếu cần độ tin cậy và tool use kiểu ChatGPT.
  • Chọn GPT-5.5 Pro nếu accuracy quan trọng hơn chi phí.
  • Chọn Gemini 3 Flash nếu workload đa phương thức nằm sâu trong Google Cloud.
  • Chọn DeepSeek V4 nếu ưu tiên chi phí và bạn kiểm soát stack inference.

Use case thực tế cho GPT-5.5 Instant

Phân loại ticket hỗ trợ

Dùng reasoning.effort: "minimal" để phân loại intent và route ticket.

response = client.responses.create(
    model="gpt-5.5",
    reasoning={"effort": "minimal"},
    input=[
        {
            "role": "system",
            "content": "Bạn là bộ phân loại ticket. Chỉ trả về một trong các nhãn: billing, bug, account, sales, other."
        },
        {
            "role": "user",
            "content": "Tôi bị tính phí hai lần trong tháng này."
        }
    ],
    max_output_tokens=20,
)

print(response.output_text)
Enter fullscreen mode Exit fullscreen mode

Use case này hưởng lợi từ việc giảm sai lệch vì ticket thanh toán bị phân loại sai có thể tạo chi phí hỗ trợ thật.

Hỏi đáp tài liệu

GPT-5.5 Instant phù hợp cho documentation QA có retrieval context.

response = client.responses.create(
    model="gpt-5.5",
    reasoning={"effort": "minimal"},
    input=[
        {
            "role": "system",
            "content": "Trả lời dựa trên context được cung cấp. Nếu không có thông tin, nói rằng bạn không biết."
        },
        {
            "role": "user",
            "content": """
Context:
...

Câu hỏi:
Làm thế nào để tạo API key?
"""
        }
    ],
    max_output_tokens=300,
)
Enter fullscreen mode Exit fullscreen mode

Context window 1M giúp xử lý tài liệu lớn, nhưng bạn vẫn nên dùng retrieval để giảm chi phí.

Trợ lý review code

Dùng low hoặc medium cho review code thông thường. Nâng lên high cho code liên quan đến bảo mật.

const response = await client.responses.create({
  model: "gpt-5.5",
  reasoning: { effort: "low" },
  input: [
    {
      role: "system",
      content: "Bạn là code reviewer. Tập trung vào bug, edge case và cải thiện readability."
    },
    {
      role: "user",
      content: "Review đoạn code này:\n\n..."
    }
  ],
  max_output_tokens: 800,
});
Enter fullscreen mode Exit fullscreen mode

Bạn có thể kết hợp với tiện ích mở rộng Apidog VS Code để kiểm tra API trực tiếp khi review code liên quan đến endpoint.

Checklist triển khai nhanh

Trước khi đưa GPT-5.5 Instant vào production, kiểm tra các mục sau:

  • [ ] Dùng model: "gpt-5.5"
  • [ ] Đặt reasoning.effort rõ ràng
  • [ ] Đặt max_output_tokens
  • [ ] Không hard-code API key
  • [ ] Log latency, input tokens và output tokens
  • [ ] Có retry/backoff cho lỗi tạm thời
  • [ ] Có test prompt mẫu
  • [ ] Có kiểm thử regression trong CI
  • [ ] Có giới hạn ngân sách theo route hoặc tenant
  • [ ] Có fallback khi vượt rate limit hoặc quota

Kết luận

GPT-5.5 Instant là đường dẫn ít ma sát nhất để dùng model mới của OpenAI. Trong ChatGPT, bạn đã có nó mặc định. Trong API, bạn dùng model: "gpt-5.5" và đặt reasoning.effort: "minimal" để đạt hành vi gần nhất với Instant.

Những điểm cần nhớ:

  • GPT-5.5 Instant thay thế GPT-5.3 Instant làm mặc định ChatGPT.
  • OpenAI báo cáo giảm 52.5% tuyên bố sai lệch trên prompt rủi ro cao so với GPT-5.3 Instant.
  • Free, Plus và các gói trả phí có giới hạn tin nhắn khác nhau.
  • API dùng model name gpt-5.5, không có gpt-5.5-instant.
  • reasoning.effort là tham số chính để điều chỉnh hành vi Instant/Thinking.
  • Giá tiêu chuẩn bắt đầu từ $5 input và $30 output trên mỗi triệu token.
  • Context window 1M phù hợp với nhiều workload RAG.
  • Apidog giúp bạn lưu request, quản lý secret, kiểm thử response và chạy regression test trước khi triển khai.

Nếu bạn là developer, bước tiếp theo là lấy API key, cài SDK, tạo request gpt-5.5 đầu tiên, sau đó lưu nó thành request mẫu trong Apidog. Tài liệu tham khảo thêm nằm trong hướng dẫn API GPT-5.5hướng dẫn truy cập miễn phí GPT-5.5.

Câu hỏi thường gặp

GPT-5.5 Instant có miễn phí không?

Có, nhưng có giới hạn. Tài khoản ChatGPT miễn phí có 10 tin nhắn mỗi 5 giờ trên GPT-5.5 Instant. Sau đó, cuộc trò chuyện chuyển về GPT-5.5 mini cho đến khi bộ đếm được đặt lại. Plus có 160 tin nhắn mỗi 3 giờ. Pro và Business được sử dụng không giới hạn, theo các biện pháp chống lạm dụng.

Tên model API cho GPT-5.5 Instant là gì?

Không có model riêng tên gpt-5.5-instant. Hãy dùng gpt-5.5 và đặt:

{
  "reasoning": {
    "effort": "minimal"
  }
}
Enter fullscreen mode Exit fullscreen mode

Tài liệu tham khảo đầy đủ có trong hướng dẫn API GPT-5.5.

GPT-5.5 Instant khác GPT-5.5 Thinking như thế nào?

Cùng model nền tảng, khác ngân sách lý luận. Instant ưu tiên tốc độ và độ trễ thấp. Thinking dành nhiều compute hơn để xử lý prompt nhiều bước, tool use phức tạp và tác vụ cần phân tích sâu. Pro mở rộng Thinking với compute bổ sung.

GPT-5.5 Instant có hỗ trợ tool use không?

Có. Model có thể gọi công cụ, duyệt web qua công cụ tìm kiếm, chạy trình thông dịch mã và xử lý API tệp. Trong Responses API, bạn cấu hình qua tham số tools.

Cửa sổ ngữ cảnh của GPT-5.5 Instant là bao nhiêu?

Cửa sổ ngữ cảnh là 1 triệu input tokens, với tối đa 128.000 output tokens mỗi phản hồi. Hãy chú ý ngưỡng 272K input tokens vì vượt ngưỡng này sẽ làm tăng chi phí phiên trên các cấp tiêu chuẩn, batch và flex.

Tôi có thể ghim GPT-5.5 Instant trong ChatGPT không?

Có, nếu bạn dùng Plus, Pro hoặc Business. Mở model picker trong header chat và chọn GPT-5.5 Instant. Việc ghim áp dụng cho cuộc trò chuyện hiện tại. Tài khoản miễn phí không thể ghim và sẽ dùng bộ định tuyến tự động.

Làm thế nào để kiểm tra request GPT-5.5 Instant trước khi triển khai?

Lưu request trong Apidog, đặt API key làm environment secret, phát lại request trên staging và production, thêm assertions cho response, rồi chạy test suite trong CI để phát hiện regression.

Điều gì xảy ra khi GPT-5.5 Instant chuyển sang Thinking?

Bộ định tuyến tự động nâng cấp khi prompt có vẻ đủ phức tạp. Bạn có thể thấy thời gian chờ token đầu tiên dài hơn. Trong API, chi phí vẫn theo model gpt-5.5; để tránh hành vi khó tái tạo, hãy đặt reasoning.effort rõ ràng trong request.

Top comments (0)