欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 汽车 > 维修 > 利用大模型和聚类算法找出 Excel 文件中重复或相似度高的数据,并使用 FastAPI 进行封装的详细方案

利用大模型和聚类算法找出 Excel 文件中重复或相似度高的数据,并使用 FastAPI 进行封装的详细方案

2025/4/18 20:31:58 来源:https://blog.csdn.net/go5463158465/article/details/147128038  浏览:    关键词:利用大模型和聚类算法找出 Excel 文件中重复或相似度高的数据,并使用 FastAPI 进行封装的详细方案

以下是一个利用大模型和聚类算法找出 Excel 文件中重复或相似度高的数据,并使用 FastAPI 进行封装的详细方案:

方案流程

  1. 数据读取:从 Excel 文件中读取数据。
  2. 文本向量化:使用大模型将文本数据转换为向量表示。
  3. 聚类分析:运用聚类算法对向量进行分组,将相似度高的数据归为一组。
  4. 结果返回:将聚类结果返回,供人工筛选。
  5. API 封装:使用 FastAPI 封装上述功能,方便调用。

开发平台

  • 编程语言:Python
  • 主要库pandas 用于数据处理,transformers 用于大模型调用,scikit-learn 用于聚类分析,fastapi 用于构建 API,uvicorn 用于运行服务器。

具体开发情况

下面是实现该功能的代码:

import pandas as pd
from transformers import AutoTokenizer, AutoModel
import torch
from sklearn.cluster import DBSCAN
from fastapi import FastAPI, File, UploadFile
import uvicorn# 初始化 FastAPI 应用
app = FastAPI()# 加载预训练的模型和分词器
tokenizer = AutoTokenizer.from_pretrained('bert-base-chinese')
model = AutoModel.from_pretrained('bert-base-chinese')def get_embeddings(texts):"""将文本转换为向量表示"""inputs = tokenizer(texts, return_tensors='pt', padding=True, truncation=True)with torch.no_grad():outputs = model(**inputs)embeddings = outputs.last_hidden_state.mean(dim=1).numpy()return embeddingsdef cluster_data(embeddings):"""使用 DBSCAN 进行聚类分析"""clustering = DBSCAN(eps=0.5, min_samples=2).fit

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词