Embeddings
根据输入内容生成对应的向量表示。
bge-large-zh是由智源研究院研发的中文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。
请求接口:
https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/embeddings/bge_large_zh
通过数组的方式把几句话向量化,请求参数:
{
"user_id": "user_guoxiuzhi",
"input": [
"\"郭\",\"秀\",\"志\"\""
]
}
返回:
{
"id": "as-69w7jaawzw",
"object": "embedding_list",
"created": 1700481539,
"data": [
{
"object": "embedding",
"embedding": [
"0.010606295429170132",
"0.020870376378297806",
"-0.025378530845046043",
...此处省略很多很多的向量值,(共384个float64)...
"-0.031916044652462006",
"-0.02520829811692238",
"-0.030339309945702553"
],
"index": 0
}
],
"usage": {
"prompt_tokens": 3,
"total_tokens": 3
}
}
网友评论