豆包得后台大模型支持为字节得火山方舟,所以想使用豆包的API,直接从这里就可以。

一、首先注册账号:

火山引擎-云上增长新动力

注册完成之后,控制台-账户-API访问密钥

二、找到API测试用例:

Skylark-chat API调用说明--火山方舟大模型服务平台-火山引擎

参考python测试用例:

'''
Usage:

1. python3 -m pip install --user volcengine
2. VOLC_ACCESSKEY=XXXXX VOLC_SECRETKEY=YYYYY python main.py
'''
import os
from volcengine.maas import MaasService, MaasException, ChatRole

access_key = "AKLTND**************Q2OTkxYTgyOGQ"
secret_key = "WXpNNU16ZG1PRE*************************NU9EQQ=="

def test_chat(maas, req):
    try:
        resp = maas.chat(req)
        print(resp)
        print(resp.choice.message.content)
    except MaasException as e:
        print(e)


def test_stream_chat(maas, req):
    try:
        resps = maas.stream_chat(req)
        for resp in resps:
            print(resp)
            print(resp.choice.message.content)
    except MaasException as e:
        print(e)


if __name__ == '__main__':
    maas = MaasService('maas-api.ml-platform-cn-beijing.volces.com', 'cn-beijing')

    maas.set_ak(access_key)
    maas.set_sk(secret_key)

    # document: "https://www.volcengine.com/docs/82379/1099475"
    req = {
        "model": {
            "name": "skylark-chat",
        },
        "parameters": {
            "max_new_tokens": 1000,  # 输出文本的最大tokens限制
            "temperature": 0.7,  # 用于控制生成文本的随机性和创造性,Temperature值越大随机性越大,取值范围0~1
            "top_p": 0.9,  # 用于控制输出tokens的多样性,TopP值越大输出的tokens类型越丰富,取值范围0~1     
            "top_k": 0,  # 选择预测值最大的k个token进行采样,取值范围0-1000,0表示不生效
        },
        "messages": [
            {
                "role": ChatRole.USER,
                "content": "天为什么这么蓝?"
            }, 
            # {
            #     "role": ChatRole.ASSISTANT,
            #     "content": "因为有你"
            # }, {
            #     "role": ChatRole.USER,
            #     "content": "花儿为什么这么香?"
            # },
        ]
    }

    test_chat(maas, req)
    test_stream_chat(maas, req)

测试结果:

具体更多更详细的说明请参考官方文档!

火山方舟大模型服务平台-火山引擎

Logo

欢迎加入 MCP 技术社区!与志同道合者携手前行,一同解锁 MCP 技术的无限可能!

更多推荐