首页 游戏 软件 资讯 排行榜 专题
首页
AI
讯飞机器翻译质量评估挑战赛Baseline(PaddlePaddle)

讯飞机器翻译质量评估挑战赛Baseline(PaddlePaddle)

热心网友
32
转载
2025-07-24
本文围绕科大讯飞中-英机器翻译质量评估赛事展开,介绍赛事任务、数据及评审规则。采用MTransQuest模型作为基线方案,用WMT20-task1数据训练,处理数据并分析分布与长度。经训练、验证和预测,得出不同模型表现,还给出优化思路,为参赛队伍提供参考。

讯飞机器翻译质量评估挑战赛baseline(paddlepaddle) - 游乐网

赛题简介

举办方:科大讯飞股份有限公司

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

任务类型:质量评估(QE)、自然语言回归

赛事背景

机器翻译质量评估(QE)指在没有人工翻译参考下对机器翻译系统译文进行自动打分。一方面,QE技术可以协助人工校正机器翻译后编辑(PE)过程,通过QE评分指示机器翻译结果是否值得译后编辑;另一方面,QE技术可以用来改善机器翻译系统,通过QE技术挖掘机器翻译系统存在的死点问题,从而进行数据清洗,迭代优化机器翻译模型质量。

当前基于神经网络模型的QE技术受到学术界关注,但是工业级QE技术应用尚不成熟,由于人工评分数据稀疏、评分主观性较大、数据多样性差等问题,QE技术还需要研究和优化。

赛事任务

本次大赛提供非受限场景,可使用任何数据资源和模型,在提供的500句中->英方向的翻译数据上进行质量评估(0-100分)。数据如下:

训练集:无

开发集:500句中-英机翻数据及人工评分数据;

测试集:500句中-英机翻数据;

评审规则

1.数据说明 所有文件均要求为UTF-8编码,其中评测组织方发放的开发集(含人工评分数据)、测试集以及参评单位最终提交的机翻评分结果文件为纯文本文件。

评测组织方发放的数据有两种,分别为:开发集和测试集。下面具体说明这些数据文件的格式。

1)开发集

本次比赛为参赛选手提供开发集包含机器翻译句对及人工评分数据(0-100分,打分最小粒度为5分)。训练集由逐行对应的源语言文件和目标语言文件组成,每行为一个句子。训练集由平行句对数据文件和单语数据文件组成,平行句对数据文件中每行包含马来语-中文对齐句子,源/目标语言句子间采用’\t’分隔,文件命名valid.txt。

2)测试集

为了方便组织评测,在评测阶段组织方发放测试集文件中只包含机器翻译句对(删除最后一栏评分数据),参赛选手需要提交QE系统评分数据,并按照开发集数据格式提交(不要打乱文件数据顺序),文件命名test.txt。

评估指标

本次比赛采用按与人工评分的pearson相关系数进行评价。 机器翻译效果人工评测标准:分别就“忠实度”和“流利度”两个维度制定评价标准,最终人工分为忠实度和流利度打分的算术平均值。

忠实度(fidelity):评测译文是否忠实地表达了原文的内容。按0–100分打分,打分最小粒度5分。

流利度(fluency):评测译文是否流畅和地道。按0–100分打分,打分最小粒度5分。

系统要求

本赛题为“非受限场景”,参评单位可以自由选择所采用技术方案和训练数据。

非受限场景,具体说明如下:

• 对于以基于规则的QE技术为主的参评系统,允许采用通过人工方式构造的翻译知识(如规则、模板、词典等),但要在系统描述和技术报告中对所使用的翻译知识的规模、构造和使用方式等给出清晰的说明。

• 可以使用开源工具/库来进行数据处理或方案优化,如词法分析、句法分析及命名实体识别工具等,使用时需要注明开源工具来源;禁止直接或间接使用开源质量评估工具。

• 鼓励使用开源数据,使用时需要注明开源数据来源。

• 可以使用开源的预训练模型比如mBERT、mBART等,使用时需要注明使用开源模型描述与地址,不可使用m2m100等开源翻译模型。

Baseline思路和方案

赛题思路

本塞题属于句子级翻译质量评估(QE)任务,通常被视为有监督的回归问题。笔者是首次接触机器翻译质量评估相关的任务,对于笔者来说本任务有两个难点:

如何构建QE模型如何解决零样本问题

Q1:如何构建QE模型

1.比赛不允许直接或间接使用开源质量评估工具,但可以学习开源质量评估框架是如何工作的,复现其模型方法再重新训练以搭建一个Baseline方案。通过查询文献资料,发现TransQuest是目前SOTA级别的开源质量评估框架。其论文发表在EMNLP2020会议上,其中作者提出了两个不同神经网络框架MonoTransQuest (MTransQuest)和SiameseTransQuest (STransQuest)执行句子级翻译质量评估任务,如下图所示:

讯飞机器翻译质量评估挑战赛Baseline(PaddlePaddle) - 游乐网        

从模型结构上看MTransQuest和STransQuest并不复杂,尝试复现简单模型以搭建Baseline,根据论文实验显示,TransQuest提出的两个框架在En-Zh数据上Pearson系数至少到达0.4,并且MTransQuest的STransQuest要优于STransQuest,经过数据增强后两个框架分数有明显改善(数据增强可能是后续Baseline优化的重要方向),故尝试以MTransQuest模型作为Baseline方案,在模型选择上论文使用XLM-R模型,由于当前版本的Paddlenlp尚未加入XLM系列的预训练模型,本文使用bert-base-multilingual-cased和bert-base-multilingual-uncased替代XLM-R模型。

讯飞机器翻译质量评估挑战赛Baseline(PaddlePaddle) - 游乐网        


Q2:如何解决零样本问题

2.比赛并未提供训练数据,根据相关文献在机器翻译质量评估任务上,用较多的是WMT系列数据集,其中WMT20数据集的Task1:Sentence-Level Direct Assessment与赛题接近,拟采用WMT20-task1的EN-ZH英汉数据进行微调训练。

讯飞机器翻译质量评估挑战赛Baseline(PaddlePaddle) - 游乐网        

Baseline效果

(2024.06.29)排名rank1 发现不区分大小写bert-base-multilingual-uncased在线上线下都取的了更好的效果

首次接触QE任务和自然语言回归任务,希望本Baseline能够参加比赛的队伍带来思路,希望榜前的大佬多多分享比赛思路!

优化思路

数据增强更换多语言预训练模型增强基线分数结合人工方式构造的翻译知识(如规则、模板、词典等)辅助提升效果使用开源工具/库来进行数据处理或方案优化,如词法分析、句法分析及命名实体识别工具等其他QE方法In [ ]
# 注意请将paddlenlp更新至最新版本!pip install -U paddlenlp
登录后复制    In [2]
import osimport jsonimport randomimport numpy as npimport pandas as pdfrom tqdm import tqdmfrom sklearn.metrics import accuracy_scorefrom sklearn.model_selection import train_test_splitimport paddleimport paddlenlpimport paddle.nn.functional as Ffrom functools import partialfrom paddlenlp.data import Stack, Dict, Padfrom paddlenlp.datasets import load_datasetfrom paddlenlp.transformers.bert.tokenizer import BertTokenizerimport matplotlib.pyplot as pltimport seaborn as snsfrom scipy.stats import pearsonrseed = 12345def set_seed(seed):    paddle.seed(seed)    random.seed(seed)    np.random.seed(seed)set_seed(seed)
登录后复制    In [3]
# 查看可用的预训练模型BertTokenizer.pretrained_resource_files_map['vocab_file'].keys()
登录后复制        
dict_keys(['bert-base-uncased', 'bert-large-uncased', 'bert-base-cased', 'bert-large-cased', 'bert-base-multilingual-uncased', 'bert-base-multilingual-cased', 'bert-base-chinese', 'bert-wwm-chinese', 'bert-wwm-ext-chinese', 'macbert-large-chinese', 'macbert-base-chinese', 'simbert-base-chinese', 'uer/chinese-roberta-base', 'uer/chinese-roberta-medium', 'uer/chinese-roberta-6l-768h', 'uer/chinese-roberta-small', 'uer/chinese-roberta-mini', 'uer/chinese-roberta-tiny'])
登录后复制                In [4]
# 超参数MODEL_NAME = 'bert-base-multilingual-uncased'  # bert-base-multilingual-cased# 给出的标签均为文本,创建label_map构建映射关系max_seq_length = 400train_batch_size = 16valid_batch_size = 8test_batch_size = 8# 训练过程中的最大学习率learning_rate = 1e-5# 训练轮次epochs = 5# 学习率预热比例warmup_proportion = 0.1# 权重衰减系数,类似模型正则项策略,避免模型过拟合weight_decay = 0.01max_grad_norm = 1.0# 训练结束后,存储模型参数save_dir_curr = "checkpoint/model"# 记录训练epoch、损失等值loggiing_print = 50loggiing_eval = 50# 提交文件名称sumbit_name = "work/sumbit.csv"
登录后复制    

1 数据读取和EDA

1.1 读取数据并统一格式

In [5]
# WMT20-task1数据 使用pandas 读取存在问题,改用open方式读取# 舍弃部分字段如scores,z_scores、z_mean,以平均分作为scoresdef read_wmt20(file_name):    wmt20_data = []    with open(file_name,"r") as f:        for idx,line in enumerate(f.readlines()):            if idx!=0:                task_list = line.split("\t")                scores = int(eval(task_list[4]))                if scores % 10 <4:                    scores = scores - scores % 10                elif scores < 7:                    scores = scores //10 * 10 + 5                else:                    scores = (scores //10 + 1) * 10                wmt20_data.append({                    "index":task_list[0],                    "original":task_list[2],                    "translation":task_list[1],                    "scores":scores / 100 ,                })    return wmt20_data# 读取讯飞比赛数据,处理为相同格式def read_xfqe(df,istrain=True):    xfqe_data = []    for idx,rows in df.iterrows():        if istrain:            xfqe_data.append({                "index":idx,                "original":rows["original"],                "translation":rows["translation"],                "scores":int(rows["scores"]) / 100,            })        else:            xfqe_data.append({                "index":idx,                "original":rows["original"],                "translation":rows["translation"],            })    return xfqe_datavalid = pd.read_csv("data/data154704/valid.txt",sep='\t',names=["original","translation","scores"])test = pd.read_csv("data/data154704/test.txt",sep='\t',names=["original","translation"])valid = valid[valid["scores"].notna()]xfqe_valid = read_xfqe(valid)xfqe_test = read_xfqe(test,istrain=False)wmt20_train = read_wmt20("data/data154704/train.enzh.df.short.tsv")wmt20_dev = read_wmt20("data/data154704/dev.enzh.df.short.tsv")print(len(wmt20_train),len(wmt20_dev))print(len(xfqe_valid),len(xfqe_test))wmt20_train = wmt20_train + wmt20_devprint("train size: %d \nvalid size %d \ntest size %d" % (len(wmt20_train),len(xfqe_valid),len(xfqe_test)))
登录后复制        
7000 1000494 500train size: 8000 valid size 494 test size 500
登录后复制        

1.2 简易数据分析

In [6]
# 绘制wmt20的质量分数分布pd.DataFrame(wmt20_train)['scores'].hist()
登录后复制        
登录后复制                
登录后复制登录后复制登录后复制登录后复制                In [7]
# 绘制wmt20-task1数据集的文本长度分布states_wmt20 = pd.DataFrame(wmt20_train)states_wmt20['original_len'] = [len(i) for i in states_wmt20["original"]]states_wmt20['translation_len'] = [len(i) for i in states_wmt20["translation"]]states_wmt20['concat_len'] = [i+j for i,j in zip(states_wmt20["original_len"],states_wmt20["translation_len"])]plt.title("wmt20 text length")sns.distplot(states_wmt20['original_len'],bins=10,color='r')sns.distplot(states_wmt20['translation_len'],bins=10,color='g')sns.distplot(states_wmt20['concat_len'],bins=10,color='b')plt.show()
登录后复制        
登录后复制登录后复制登录后复制登录后复制                In [8]
# 绘制讯飞数据集的文本长度分布states_valid = valid.copy()states_valid['original_len'] = [len(i) for i in states_valid["original"]]states_valid['translation_len'] = [len(i) for i in states_valid["translation"]]states_valid['concat_len'] = [i+j for i,j in zip(states_valid["original_len"],states_valid["translation_len"])]plt.title("xf valid text length")sns.distplot(states_valid['original_len'],bins=10,color='r')sns.distplot(states_valid['translation_len'],bins=10,color='g')sns.distplot(states_valid['concat_len'],bins=10,color='b')plt.show()
登录后复制        
登录后复制登录后复制登录后复制登录后复制                In [9]
# 绘制讯飞数据集的文本长度分布states_test = test.copy()states_test['original_len'] = [len(i) for i in states_test["original"]]states_test['translation_len'] = [len(i) for i in states_test["translation"]]states_test['concat_len'] = [i+j for i,j in zip(states_test["original_len"],states_test["translation_len"])]plt.title("xf test text length")sns.distplot(states_test['original_len'],bins=10,color='r')sns.distplot(states_test['translation_len'],bins=10,color='g')sns.distplot(states_test['concat_len'],bins=10,color='b')plt.show()
登录后复制        
登录后复制登录后复制登录后复制登录后复制                

1.3 结论

训练数据和赛题数据的分数分布不一致,可以考虑采样分布和开放集一致(后续的优化点)训练数据文本长度多数在300以下,和赛题数据在长度上并不一致赛题数据文本长度较长,拼接后多数分布在400以下,本文max_len设置350

2 数据处理

In [ ]
# 加载tokenizerif MODEL_NAME  == 'bert-base-multilingual-cased':    tokenizer = BertTokenizer.from_pretrained(MODEL_NAME,do_lower_case=False)else:    tokenizer = BertTokenizer.from_pretrained(MODEL_NAME)
登录后复制    In [11]
def read(df,istrain=True):    if istrain:        for data in df:            yield {                "original":data['original'],                "translation":data['translation'],                "labels":data['scores']                }    else:        for data in df:            yield {                "original":data['original'],                "translation":data['translation'],                }# 将生成器传入load_datasettrain_ds = load_dataset(read, df=wmt20_train, lazy=False)valid_ds = load_dataset(read, df=xfqe_valid, lazy=False)# 查看数据for idx in range(1,3):    print(train_ds[idx])    print("==="*30)for idx in range(1,3):    print(valid_ds[idx])    print("==="*30)
登录后复制        
{'original': '他把欧文扔进了挖掘机挖出儿子心脏的坑里.', 'translation': "He shoves Owen into the pit where Digger rips out his son's heart.", 'labels': 0.6}=========================================================================================={'original': "Alpha Phi Alpha 还参加了 Dimes 'WalkAmerica 的 3 月活动 , 并在 2006 年筹集了 181 000 美元。", 'translation': "Alpha Phi Alpha also participates in the March of Dimes' WalkAmerica and raised over $181,000 in 2006.", 'labels': 0.7}=========================================================================================={'original': '屏幕需要稍加区别对待。', 'translation': 'The screen needs to be treated a little differently.', 'labels': 1.0}=========================================================================================={'original': 'He told the referee that he had not been fouled, but the referee insisted he take the penalty kick.', 'translation': '他 告诉 裁判 他 并 没有 犯规 , 但是 裁判 坚持 让 他 踢 点球 。', 'labels': 1.0}==========================================================================================
登录后复制        In [12]
# 编码def convert_example(example, tokenizer, max_seq_len=512, mode='train'):    # 调用tokenizer的数据处理方法把文本转为id    tokenized_input = tokenizer(        example['original'] + '[SEP]' + example['translation'],        is_split_into_words=True,        max_seq_len=max_seq_len)    if mode == "test":        return tokenized_input    # 把意图标签转为数字id    tokenized_input['labels'] = example['labels']    return tokenized_inputtrain_trans_func = partial(        convert_example,        tokenizer=tokenizer,        mode='train',        max_seq_len=max_seq_length)valid_trans_func = partial(        convert_example,        tokenizer=tokenizer,        mode='dev',        max_seq_len=max_seq_length)train_ds.map(train_trans_func, lazy=False)valid_ds.map(valid_trans_func, lazy=False)# 初始化BatchSamplertrain_batch_sampler = paddle.io.BatchSampler(train_ds, batch_size=train_batch_size, shuffle=True)valid_batch_sampler = paddle.io.BatchSampler(valid_ds, batch_size=valid_batch_size, shuffle=False)# 定义batchify_fnbatchify_fn = lambda samples, fn = Dict({    "input_ids": Pad(axis=0, pad_val=tokenizer.pad_token_id),     "token_type_ids": Pad(axis=0, pad_val=tokenizer.pad_token_type_id),    "labels": Stack(dtype="float32"),}): fn(samples)# 初始化DataLoadertrain_data_loader = paddle.io.DataLoader(    dataset=train_ds,    batch_sampler=train_batch_sampler,    collate_fn=batchify_fn,    return_list=True)valid_data_loader = paddle.io.DataLoader(    dataset=valid_ds,    batch_sampler=valid_batch_sampler,    collate_fn=batchify_fn,    return_list=True)
登录后复制    

3 MTransQuest模型搭建

In [14]
import paddlefrom paddle import nnfrom paddlenlp.transformers.bert.modeling import BertPretrainedModel# Modelclass MTransQuestErnieM(BertPretrainedModel):    def __init__(self, bert, labels_dim=1, dropout=None):        super().__init__()        # 预训练模型        self.bert = bert        self.dropout = nn.Dropout(self.bert.config['hidden_dropout_prob'])        self.classifier = nn.Linear(self.bert.config['hidden_size'],labels_dim)        self.sigmoid = nn.Sigmoid()        self.apply(self.init_weights)    def forward(self,                input_ids,                token_type_ids=None):        sequence_output,_ = self.bert(            input_ids,            token_type_ids=token_type_ids)        sequence_output = self.dropout(sequence_output[:,0,:])          sequence_output = self.classifier(sequence_output)        logits = self.sigmoid(sequence_output)        return logits
登录后复制    In [ ]
# 创建MTransQuest modelmodel = MTransQuestErnieM.from_pretrained(MODEL_NAME)
登录后复制    

4 模型配置

In [16]
# 训练总步数num_training_steps = len(train_data_loader) * epochs# 学习率衰减策略lr_scheduler = paddlenlp.transformers.LinearDecayWithWarmup(learning_rate, num_training_steps,warmup_proportion)decay_params = [    p.name for n, p in model.named_parameters()    if not any(nd in n for nd in ["bias", "norm"])]# 定义优化器optimizer = paddle.optimizer.AdamW(    learning_rate=lr_scheduler,    parameters=model.parameters(),    weight_decay=weight_decay,    apply_decay_param_fun=lambda x: x in decay_params,    grad_clip=paddle.nn.ClipGradByGlobalNorm(max_grad_norm))
登录后复制    

5 模型训练

In [17]
# 验证部分@paddle.no_grad()def evaluation(model, data_loader):    model.eval()    real_s = []    pred_s = []    for batch in data_loader:        input_ids, token_type_ids, labels = batch        logits = model(input_ids, token_type_ids)        logits = paddle.reshape(logits,[-1])        labels = labels        pred_s.extend(logits.numpy())        real_s.extend(labels.numpy())    score =  pearsonr(pred_s,real_s)[0]    return score# 训练阶段def do_train(model,data_loader):    model_total_epochs = 0    best_score = 0.    training_loss = 0    # 训练    print("train ...")    model.train()    for epoch in range(0, epochs):        for step, batch in enumerate(data_loader, start=1):            input_ids, token_type_ids, labels = batch            logits = model(input_ids, token_type_ids)            logits = paddle.reshape(logits,[-1])            labels = labels            loss = F.mse_loss(logits,labels)                        loss.backward()            optimizer.step()            lr_scheduler.step()            optimizer.clear_grad()            training_loss  += loss.numpy()                    model_total_epochs += 1            if model_total_epochs % loggiing_print == 0:                print("step: %d / %d, training loss: %.5f" % (model_total_epochs, num_training_steps, training_loss / model_total_epochs))                        if model_total_epochs % loggiing_eval == 0:                eval_score = evaluation(model, valid_data_loader)                print("eval pearsonr: %.5f" % eval_score)                if best_score  < eval_score:                    print("pearsonr update %.5f ---> %.5f " % (best_score,eval_score))                    best_score  = eval_score                    # 保存模型                    os.makedirs(save_dir_curr,exist_ok=True)                    save_param_path = os.path.join(save_dir_curr, 'model_best.pdparams')                    paddle.save(model.state_dict(), save_param_path)                    # 保存tokenizer                    tokenizer.save_pretrained(save_dir_curr)                else:                    print("but best score %.5f" %  best_score )                model.train()    return best_score
登录后复制    In [ ]
best_score = do_train(model,train_data_loader)
登录后复制    In [19]
print("best pearsonr score: %.5f" % best_score)
登录后复制        
best pearsonr score: 0.36847
登录后复制        

6 模型预测

In [20]
# 相同方式构造测试集test_ds = load_dataset(read,df=xfqe_test, istrain=False, lazy=False)test_trans_func = partial(        convert_example,        tokenizer=tokenizer,        mode='test',        max_seq_len=max_seq_length)test_ds.map(test_trans_func, lazy=False)test_batch_sampler = paddle.io.BatchSampler(test_ds, batch_size=test_batch_size, shuffle=False)test_batchify_fn = lambda samples, fn = Dict({    "input_ids": Pad(axis=0, pad_val=tokenizer.pad_token_id),     "token_type_ids": Pad(axis=0, pad_val=tokenizer.pad_token_type_id),}): fn(samples)test_data_loader = paddle.io.DataLoader(    dataset=test_ds,    batch_sampler=test_batch_sampler,    collate_fn=test_batchify_fn,    return_list=True)# 预测阶段def do_sample_predict(model,data_loader):    model.eval()    preds = []    for batch in data_loader:        input_ids, token_type_ids= batch        logits = model(input_ids, token_type_ids)        logits = paddle.reshape(logits * 100,[-1])         preds.extend(logits.numpy())    return preds# 读取最佳模型state_dict = paddle.load(os.path.join(save_dir_curr,'model_best.pdparams'))model.load_dict(state_dict)# 预测print("predict start ...")pred_score = []pred_score_continuous = do_sample_predict(model,test_data_loader)# 将连续的预测值 转化 离散的分数(以5作为最小的粒度)for scores in pred_score_continuous:    if scores % 10 <4:        scores = scores - scores % 10    elif scores < 7:        scores = scores //10 * 10 + 5    else:        scores = (scores //10 + 1) * 10    pred_score.append(int(scores))print("predict end ...")
登录后复制        
predict start ...predict end ...
登录后复制        

7 生成提交文件

In [22]
sumbit = pd.DataFrame([],columns=['pred'])sumbit["pred"] = pred_scoresumbit.to_csv("work/sumbit_{}.csv".format(MODEL_NAME),index=False,header=False)
登录后复制    

总结

发现不区分大小写bert-base-multilingual-uncased在线上线下都取的了更好的效果 提交测试文件,baseline方案取得了0.17389的线上分数(2024.06.29)排名rank1

来源:https://www.php.cn/faq/1425510.html
免责声明: 游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

相关攻略

FDUSD 脱锚危机之下:对币安影响几何?
web3.0
FDUSD 脱锚危机之下:对币安影响几何?

FDUSD脱锚惊魂夜:币安生态稳定币的信任危机与系统性风险 2025年4月2日夜间,加密货币市场经历了一场突如其来的“压力测试”。由香港First Digital Trust Limited发行的美元稳定币FDUSD,在市场上演了惊心动魄的脱锚跳水,其兑USDT价格一度暴跌至0 8726美元。这场震

热心网友
04.01
Obsidian同步方案对比:为什么Git更适合管理笔记库?
科技数码
Obsidian同步方案对比:为什么Git更适合管理笔记库?

最近又折腾了下 Obsidian 的 Git 插件,虽然也有点麻烦,但它是适合我的。下面介绍下怎么配置和使用。 第一次使用 Obsidian 是在 2024 年,这是翻阅之前的文章 《Obsidia

热心网友
02.13
华为8B代码模型突破,32B巨头对手面临新挑战
科技数码
华为8B代码模型突破,32B巨头对手面临新挑战

这项由华为技术有限公司、南洋理工大学、香港大学和香港中文大学联合完成的突破性研究发表于2026年1月,论文编号为arXiv:2601 01426v1。研究团队通过一种名为SWE-Lego的创新训练方

热心网友
01.10
Wavesurf Wave13发布:集成SWE-1.5模型与Git工作流,重塑AI代码编辑
电脑教程
Wavesurf Wave13发布:集成SWE-1.5模型与Git工作流,重塑AI代码编辑

12 月 27 日消息,科技媒体 NeoWin 今天(12 月 27 日)发布博文,报道称 AI 代码编辑器 Windsurf 本周发布 Wave 13 版,通过大幅升级多智能体工作流、性能可访问

热心网友
12.29
小蚁NEO:特性、交易与投资指南
web3.0
小蚁NEO:特性、交易与投资指南

NEO(小蚁区块链)旨在构建智能经济网络。NEO通过资产数字化和智能合约实现自动化管理,用户需在支持NEO交易的平台注册账户并获取数字货币,选择合适的交易对后,即可下单交易并确认。交易完成后,可在账户中查看NEO资产,或转移至个人数字储存中安全保管NEO。

热心网友
12.13

最新APP

宝宝过生日
宝宝过生日
应用辅助 04-07
台球世界
台球世界
体育竞技 04-07
解绳子
解绳子
休闲益智 04-07
骑兵冲突
骑兵冲突
棋牌策略 04-07
三国真龙传
三国真龙传
角色扮演 04-07

热门推荐

美国SEC主席Paul Atkins证实:加密货币安全港提案已送交白宫审查
web3.0
美国SEC主席Paul Atkins证实:加密货币安全港提案已送交白宫审查

加密货币行业翘首以盼的监管里程碑,终于有了实质性进展。美国证券交易委员会(SEC)主席保罗·阿特金斯(Paul Atkins)近日证实,那份允许加密项目在早期获得注册豁免权的“安全港”框架提案,已经正式送抵白宫,进入了最终审查阶段。 在范德堡大学与区块链协会联合举办的数字资产峰会上,阿特金斯透露了这

热心网友
04.08
微策略Strategy报告:第一季录得144.6亿美元浮亏 再斥资约3.3亿美元买进4871枚比特币
web3.0
微策略Strategy报告:第一季录得144.6亿美元浮亏 再斥资约3.3亿美元买进4871枚比特币

微策略Strategy报告:第一季录得144 6亿美元浮亏 再斥资约3 3亿美元买进4871枚比特币 市场震荡的威力有多大?看看Strategy的最新季报就明白了。根据其最新向美国证管会(SEC)提交的8-K报告,受市场剧烈波动影响,这家公司所持的比特币在第一季度录得了一笔惊人的数字——144 6亿

热心网友
04.08
稳定币发行商Tether再扩Web3版图!Paolo Ardoino:正开发去中心化搜索引擎Hypersearch
web3.0
稳定币发行商Tether再扩Web3版图!Paolo Ardoino:正开发去中心化搜索引擎Hypersearch

稳定币巨头Tether的动向,向来是加密世界的风向标。这不,它向Web3基础设施的版图扩张,又迈出了关键一步。公司执行长Paolo Ardoino在社交平台X上透露,其工程团队正在全力“烹制”一个新项目——去中心化搜索引擎 “Hypersearch”。这个消息一出,立刻引发了行业的广泛猜想。 采用D

热心网友
04.08
Base链首个原生DeFi借贷协议Seamless Protocol倒闭 将于2026年6月30日下线
web3.0
Base链首个原生DeFi借贷协议Seamless Protocol倒闭 将于2026年6月30日下线

基地位于Coinbase旗下以太坊Layer2网络Base的Seamless Protocol,日前正式宣告了服务的终结。这个曾经吸引了超过20万用户的原生DeFi借贷协议,在运营不到三年后,终究没能跑赢时间。它主打的核心产品是Integrated Leverage Markets(ILMs)——一

热心网友
04.08
PAAL代币如何参与治理?社区投票能决定哪些事项?
web3.0
PAAL代币如何参与治理?社区投票能决定哪些事项?

PAAL代币揭秘:深度解析Web3社区治理的核心钥匙 在去中心化自治组织的浪潮中,谁真正掌握了项目的话语权?PAAL代币提供了一套系统化的答案。它不仅是生态内流转的价值媒介,更是开启链上治理大门的核心凭证。通过持有并质押PAAL代币,用户能够对协议升级、资金分配乃至战略方向等关键事务投出决定性的一票

热心网友
04.08