Movatterモバイル変換


[0]ホーム

URL:


Skip to content

Navigation Menu

Sign in
Appearance settings

Search code, repositories, users, issues, pull requests...

Provide feedback

We read every piece of feedback, and take your input very seriously.

Saved searches

Use saved searches to filter your results more quickly

Sign up
Appearance settings

【启航计划】PaddlePaddle API兼容性增强 #76301

Open
Assignees
luotao1zhwesky2010sunzhongkai588
@zhwesky2010

Description

@zhwesky2010

背景

为了降低新模型(特别是新的大模型)使用飞桨开发或迁移到飞桨的成本,飞桨在3.2版本开展了API兼容性适配 工作,提升了API针对不同框架写法的自适应能力,针对Pytorch项目,仅需修改接口代码前缀torch.paddle.,即可无缝迁移到Paddle

当前已完成了500+个重点API与Pytorch API的无缝兼容工作(包括:API名称、参数名称、参数个数、参数语义),具体名单详见PyTorch-Paddle API 映射表。但仍有很多Paddle API尚未完成兼容性适配 工作,本次活动旨在对Paddle API进行整体兼容性推全。

任务讲解:https://meeting.tencent.com/cw/KP4g34Y9f3 (第5分钟开始)


示例修改&提交方式

#76301 (comment)

认领方式

请大家以 comment 的形式认领任务,如:

【报名】:1、3、2-3
  • 多个任务之间需要使用中文顿号分隔,报名多个连续任务可用横线表示,如 1-2
  • PR 提交格式:
    • PR顺序:不同仓库分别提交 PR,Paddle 的 PR 合入后,再合入 PaConvert、Docs的 PR
    • PR标题
      • 不同仓库的 PR 标题均以[API Compatibility No.xxx] 开头,注明任务编号
      • Paddle/PaConvert 仓库的 PR 标题以-part 结尾
    • PR描述:PR Category 填User Experience,PR Types 填New features

任务表

序号Pytorch API认领人 / 状态 / PR号Paddle API参考方案(仅供参考,以PaConvert验收为准)
1torch.Tensor.addmm_ @wwaawwaaee
paddle.Tensor.addmm_c++下沉或装饰器 {'mat1': 'x', 'mat2': 'y'};
2torch.Tensor.baddbmm_ @youge325#76578
paddle.Tensor.baddbmm_c++下沉或装饰器 {'batch1': 'x', 'batch2': 'y'};
3torch.Tensor.bitwise_and_ paddle.Tensor.bitwise_and_c++下沉或装饰器 {'other': 'y'};
4torch.Tensor.bitwise_left_shift_ paddle.Tensor.bitwise_left_shift_c++下沉或装饰器 {'other': 'y'};
5torch.Tensor.bitwise_right_shift_ paddle.Tensor.bitwise_right_shift_c++下沉或装饰器 {'other': 'y'};
6torch.Tensor.bitwise_xor_ @Manfredss#76341#754
paddle.Tensor.bitwise_xor_c++下沉或装饰器 {'other': 'y'};
7torch.Tensor.cauchy_ paddle.Tensor.cauchy_c++下沉或装饰器 {'median': 'loc', 'sigma': 'scale'};
8torch.Tensor.copysign_ paddle.Tensor.copysign_c++下沉或装饰器 {'other': 'y'};
9torch.Tensor.cumsum_ paddle.Tensor.cumsum_c++下沉或装饰器 {'dim': 'axis', 'dtype': 'dtype'};
10torch.Tensor.floor_divide_ paddle.Tensor.floor_divide_c++下沉或装饰器 {'other': 'y'};
11torch.Tensor.gcd_ @Manfredss#76486
paddle.Tensor.gcd_c++下沉或装饰器 {'other': 'y'};
12torch.Tensor.geometric_ paddle.Tensor.geometric_c++下沉或装饰器 {'p': 'probs'};
13torch.Tensor.hypot_ paddle.Tensor.hypot_c++下沉或装饰器 {'other': 'y'};
14torch.Tensor.index_fill_ paddle.Tensor.index_fill_c++下沉或装饰器 {'dim': 'axis'};
15torch.Tensor.index_put_ paddle.Tensor.index_put_c++下沉或装饰器 {'values': 'value'};
16torch.Tensor.lcm_ @Manfredss#76486
paddle.Tensor.lcm_c++下沉或装饰器 {'other': 'y'};
17torch.Tensor.ldexp_ paddle.Tensor.ldexp_c++下沉或装饰器 {'other': 'y'};
18torch.Tensor.lerp_ paddle.Tensor.lerp_c++下沉或装饰器 {'end': 'y'};
19torch.Tensor.pow_ paddle.Tensor.pow_c++下沉或装饰器 {'exponent': 'y'};
20torch.Tensor.remainder_ paddle.Tensor.remainder_c++下沉或装饰器 {'other': 'y'};
21torch.Tensor.renorm_ paddle.Tensor.renorm_c++下沉或装饰器 {'dim': 'axis', 'maxnorm': 'max_norm'};
22torch.Tensor.squeeze_ paddle.Tensor.squeeze_c++下沉或装饰器 {'dim': 'axis'};
23torch.Tensor.unsqueeze_ paddle.Tensor.unsqueeze_c++下沉或装饰器 {'dim': 'axis'};
24torch.abs_ @onenewcode#76431
paddle.abs_c++下沉或装饰器 {'input': 'x'};
25torch.acos @enkilee#76390#7654#775
paddle.acosc++下沉或装饰器 {'input': 'x'}; 新增out;
26torch.acosh @enkilee#76456#783#7657
paddle.acoshc++下沉或装饰器 {'input': 'x'}; 新增out;
27torch.addmm paddle.addmmc++下沉或装饰器 {'mat1': 'x', 'mat2': 'y'}; 新增out;
28torch.angle paddle.anglec++下沉或装饰器 {'input': 'x'}; 新增out;
29torch.as_strided paddle.as_stridedc++下沉或装饰器 {'input': 'x', 'size': 'shape', 'storage_offset': 'offset'};
30torch.asin @Manfredss#76421#759#7643
paddle.asinc++下沉或装饰器 {'input': 'x'}; 新增out;
31torch.asinh @Manfredss
paddle.asinhc++下沉或装饰器 {'input': 'x'}; 新增out;
32torch.atan @Manfredss
paddle.atanc++下沉或装饰器 {'input': 'x'}; 新增out;
33torch.atan2 @Manfredss
paddle.atan2c++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
34torch.atanh @enkilee#76663
paddle.atanhc++下沉或装饰器 {'input': 'x'}; 新增out;
35torch.baddbmm paddle.baddbmmc++下沉或装饰器 {'batch1': 'x', 'batch2': 'y'}; 新增out;
36torch.bernoulli paddle.bernoullic++下沉或装饰器 {'input': 'x'}; 新增out;
37torch.bincount paddle.bincountc++下沉或装饰器 {'input': 'x'};
38torch.bitwise_and paddle.bitwise_andc++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
39torch.bitwise_left_shift paddle.bitwise_left_shiftc++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
40torch.bitwise_not paddle.bitwise_notc++下沉或装饰器 {'input': 'x'}; 新增out;
41torch.bitwise_right_shift paddle.bitwise_right_shiftc++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
42torch.bitwise_xor paddle.bitwise_xorc++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
43torch.block_diag paddle.block_diagc++下沉或装饰器 {'tensors': 'inputs'};
44torch.broadcast_tensors paddle.broadcast_tensorsc++下沉或装饰器 {'tensors': 'input'};
45torch.cartesian_prod paddle.cartesian_prodc++下沉或装饰器 {'tensors': 'x'};
46torch.cdist paddle.cdistc++下沉或装饰器 {'x1': 'x', 'x2': 'y'};
47torch.clone paddle.clonec++下沉或装饰器 {'input': 'x'};
48torch.column_stack paddle.column_stackc++下沉或装饰器 {'tensors': 'x'}; 新增out;
49torch.combinations paddle.combinationsc++下沉或装饰器 {'input': 'x'};
50torch.conj paddle.conjc++下沉或装饰器 {'input': 'x'};
51torch.copysign paddle.copysignc++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
52torch.cosh @algorithm1832#76429#7640#766
paddle.coshc++下沉或装饰器 {'input': 'x'}; 新增out;
53torch.count_nonzero paddle.count_nonzeroc++下沉或装饰器 {'input': 'x', 'dim': 'axis'};
54torch.cross @xxiu1
paddle.crossc++下沉或装饰器 {'input': 'x', 'other': 'y', 'dim': 'axis'}; 新增out;
55torch.cummax @xxiu1
paddle.cummaxc++下沉或装饰器 {'input': 'x', 'dim': 'axis'}; 新增out;
56torch.cummin @xxiu1
paddle.cumminc++下沉或装饰器 {'input': 'x', 'dim': 'axis'}; 新增out;
57torch.cumulative_trapezoid paddle.cumulative_trapezoidc++下沉或装饰器 {'dim': 'axis'};
58torch.diag paddle.diagc++下沉或装饰器 {'input': 'x', 'diagonal': 'offset'}; 新增out;
59torch.diagflat paddle.diagflatc++下沉或装饰器 {'input': 'x'};
60torch.diagonal_scatter paddle.diagonal_scatterc++下沉或装饰器 {'input': 'x', 'src': 'y', 'dim1': 'axis1', 'dim2': 'axis2'};
61torch.dist paddle.distc++下沉或装饰器 {'input': 'x', 'other': 'y'};
62torch.dsplit paddle.dsplitc++下沉或装饰器 {'input': 'x', 'indices': 'num_or_indices', 'sections': 'num_or_indices'};
63torch.dstack paddle.dstackc++下沉或装饰器 {'tensors': 'x'}; 新增out;
64torch.flip paddle.flipc++下沉或装饰器 {'input': 'x', 'dims': 'axis'};
65torch.fmax paddle.fmaxc++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
66torch.fmin paddle.fminc++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
67torch.frac @algorithm1832#76671
paddle.fracc++下沉或装饰器 {'input': 'x'}; 新增out;
68torch.frexp paddle.frexpc++下沉或装饰器 {'input': 'x'}; 新增out;
69torch.gcd paddle.gcdc++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
70torch.heaviside paddle.heavisidec++下沉或装饰器 {'input': 'x', 'values': 'y'}; 新增out;
71torch.histogram paddle.histogramc++下沉或装饰器 {'range': ['min', 'max']}; 新增out;
72torch.histogramdd paddle.histogramddc++下沉或装饰器 {'input': 'x', 'range': 'ranges', 'weight': 'weights'};
73torch.hsplit paddle.hsplitc++下沉或装饰器 {'input': 'x', 'indices': 'num_or_indices', 'sections': 'num_or_indices'};
74torch.hstack paddle.hstackc++下沉或装饰器 {'tensors': 'x'}; 新增out;
75torch.hypot paddle.hypotc++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
76torch.iinfo paddle.iinfoc++下沉或装饰器 {'type': 'dtype'};
77torch.imag paddle.imagc++下沉或装饰器 {'input': 'x'};
78torch.index_add paddle.index_addc++下沉或装饰器 {'input': 'x', 'dim': 'axis'}; 新增out;
79torch.index_fill paddle.index_fillc++下沉或装饰器 {'input': 'x', 'dim': 'axis'};
80torch.inner paddle.innerc++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
81torch.isneginf paddle.isneginfc++下沉或装饰器 {'input': 'x'}; 新增out;
82torch.isposinf paddle.isposinfc++下沉或装饰器 {'input': 'x'}; 新增out;
83torch.isreal paddle.isrealc++下沉或装饰器 {'input': 'x'};
84torch.kron paddle.kronc++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
85torch.kthvalue paddle.kthvaluec++下沉或装饰器 {'input': 'x', 'dim': 'axis'}; 新增out;
86torch.lcm paddle.lcmc++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
87torch.ldexp paddle.ldexpc++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
88torch.lgamma paddle.lgammac++下沉或装饰器 {'input': 'x'}; 新增out;
89torch.linalg.cholesky paddle.linalg.choleskyc++下沉或装饰器 {'input': 'x'}; 新增out;
90torch.linalg.cond paddle.linalg.condc++下沉或装饰器 {'input': 'x'}; 新增out;
91torch.linalg.det paddle.linalg.detc++下沉或装饰器 {'A': 'x'}; 新增out;
92torch.linalg.eig paddle.linalg.eigc++下沉或装饰器 {'input': 'x'}; 新增out;
93torch.linalg.eigh paddle.linalg.eighc++下沉或装饰器 {'input': 'x'}; 新增out;
94torch.linalg.eigvals paddle.linalg.eigvalsc++下沉或装饰器 {'input': 'x'}; 新增out;
95torch.linalg.eigvalsh paddle.linalg.eigvalshc++下沉或装饰器 {'input': 'x'}; 新增out;
96torch.linalg.householder_product paddle.linalg.householder_productc++下沉或装饰器 {'input': 'x'}; 新增out;
97torch.linalg.inv paddle.linalg.invc++下沉或装饰器 {'A': 'x'}; 新增out;
98torch.linalg.lstsq paddle.linalg.lstsqc++下沉或装饰器 {'input': 'x', 'b': 'y'};
99torch.linalg.lu paddle.linalg.luc++下沉或装饰器 {'A': 'x'}; 新增out;
100torch.linalg.lu_solve @dakelong
paddle.linalg.lu_solvec++下沉或装饰器 {'LU': 'lu', 'B': 'b'}; 新增out;
101torch.linalg.matrix_norm paddle.linalg.matrix_normc++下沉或装饰器 {'input': 'x', 'ord': 'p', 'dim': 'axis'}; 新增out;
102torch.linalg.matrix_power paddle.linalg.matrix_powerc++下沉或装饰器 {'input': 'x'}; 新增out;
103torch.linalg.matrix_rank paddle.linalg.matrix_rankc++下沉或装饰器 {'input': 'x'}; 新增out;
104torch.linalg.multi_dot paddle.linalg.multi_dotc++下沉或装饰器 {'tensors': 'x'}; 新增out;
105torch.linalg.pinv paddle.linalg.pinvc++下沉或装饰器 {'input': 'x', 'atol': '', 'rtol': 'rcond'}; 新增out;
106torch.linalg.qr paddle.linalg.qrc++下沉或装饰器 {'A': 'x'}; 新增out;
107torch.linalg.svdvals paddle.linalg.svdvalsc++下沉或装饰器 {'A': 'x', 'driver': ''}; 新增out;
108torch.linalg.vecdot paddle.linalg.vecdotc++下沉或装饰器 {'dim': 'axis'}; 新增out;
109torch.log10 @zade23#76381
paddle.log10c++下沉或装饰器 {'input': 'x'}; 新增out;
110torch.log1p @zade23#76381
paddle.log1pc++下沉或装饰器 {'input': 'x'}; 新增out;
111torch.logaddexp paddle.logaddexpc++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
112torch.logcumsumexp paddle.logcumsumexpc++下沉或装饰器 {'input': 'x', 'dim': 'axis'}; 新增out;
113torch.logspace paddle.logspacec++下沉或装饰器 {'end': 'stop', 'steps': 'num', 'dtype': 'dtype'}; 新增out;
114torch.masked_fill paddle.masked_fillc++下沉或装饰器 {'input': 'x'};
115torch.mode paddle.modec++下沉或装饰器 {'input': 'x', 'dim': 'axis'}; 新增out;
116torch.moveaxis paddle.moveaxisc++下沉或装饰器 {'input': 'x'};
117torch.mv paddle.mvc++下沉或装饰器 {'input': 'x'}; 新增out;
118torch.nan_to_num paddle.nan_to_numc++下沉或装饰器 {'input': 'x'}; 新增out;
119torch.nanmean paddle.nanmeanc++下沉或装饰器 {'input': 'x', 'dim': 'axis'}; 新增out;
120torch.nanquantile paddle.nanquantilec++下沉或装饰器 {'input': 'x', 'dim': 'axis'}; 新增out;
121torch.nansum paddle.nansumc++下沉或装饰器 {'input': 'x', 'dim': 'axis', 'dtype': 'dtype'}; 新增out;
122torch.neg paddle.negc++下沉或装饰器 {'input': 'x'}; 新增out;
123torch.nextafter paddle.nextafterc++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
124torch.nn.Bilinear paddle.nn.Bilinearc++下沉或装饰器 {'bias': 'bias_attr', 'device': '', 'dtype': ''};
125torch.nn.CosineSimilarity paddle.nn.CosineSimilarityc++下沉或装饰器 {'dim': 'axis'};
126torch.nn.Flatten paddle.nn.Flattenc++下沉或装饰器 {'start_dim': 'start_axis', 'end_dim':
127torch.nn.Fold paddle.nn.Foldc++下沉或装饰器 {'output_size': 'output_sizes', 'kernel_size': 'kernel_sizes', 'stride': 'strides', 'padding': 'paddings', 'dilation': 'dilations'};
128torch.nn.GLU paddle.nn.GLUc++下沉或装饰器 {'dim': 'axis'};
129torch.nn.GRU paddle.nn.GRUc++下沉或装饰器 {'bias': ['bias_ih_attr', 'bias_hh_attr'], 'device': '', 'dtype': ''};
130torch.nn.GRUCell paddle.nn.GRUCellc++下沉或装饰器 {'bias': ['bias_ih_attr', 'bias_hh_attr'], 'device': '', 'dtype': ''};
131torch.nn.GaussianNLLLoss paddle.nn.GaussianNLLLossc++下沉或装饰器 {'eps': 'epsilon'};
132torch.nn.Hardshrink paddle.nn.Hardshrinkc++下沉或装饰器 {'lambd': 'threshold'};
133torch.nn.Hardtanh paddle.nn.Hardtanhc++下沉或装饰器 {'min_val': 'min', 'max_val': 'max'};
134torch.nn.LSTM paddle.nn.LSTMc++下沉或装饰器 {'bias': ['bias_ih_attr', 'bias_hh_attr'], 'device': '', 'dtype': ''};
135torch.nn.LSTMCell paddle.nn.LSTMCellc++下沉或装饰器 {'bias': ['bias_ih_attr', 'bias_hh_attr'], 'device': '', 'dtype': ''};
136torch.nn.PReLU paddle.nn.PReLUc++下沉或装饰器 {'device': '', 'dtype': ''};
137torch.nn.PairwiseDistance paddle.nn.PairwiseDistancec++下沉或装饰器 {'eps': 'epsilon'};
138torch.nn.ParameterList paddle.nn.ParameterListc++下沉或装饰器 {'values': 'parameters'};
139torch.nn.PoissonNLLLoss paddle.nn.PoissonNLLLossc++下沉或装饰器 {'eps': 'epsilon'};
140torch.nn.Softshrink paddle.nn.Softshrinkc++下沉或装饰器 {'lambd': 'threshold'};
141torch.nn.SyncBatchNorm paddle.nn.SyncBatchNormc++下沉或装饰器 {'eps': 'epsilon', 'affine': ['weight_attr', 'bias_attr'], 'track_running_stats': '', 'process_group': '', 'device': '', 'dtype': ''};
142torch.nn.TransformerEncoder paddle.nn.TransformerEncoderc++下沉或装饰器 {'enable_nested_tensor': '', 'mask_check': ''};
143torch.nn.TripletMarginLoss paddle.nn.TripletMarginLossc++下沉或装饰器 {'eps': 'epsilon'};
144torch.nn.Unflatten paddle.nn.Unflattenc++下沉或装饰器 {'dim': 'axis', 'unflattened_size': 'shape'};
145torch.nn.functional.adaptive_avg_pool2d paddle.nn.functional.adaptive_avg_pool2dc++下沉或装饰器 {'input': 'x'};
146torch.nn.functional.adaptive_avg_pool3d paddle.nn.functional.adaptive_avg_pool3dc++下沉或装饰器 {'input': 'x'};
147torch.nn.functional.adaptive_max_pool1d paddle.nn.functional.adaptive_max_pool1dc++下沉或装饰器 {'input': 'x', 'return_indices': 'return_mask'};
148torch.nn.functional.adaptive_max_pool2d paddle.nn.functional.adaptive_max_pool2dc++下沉或装饰器 {'input': 'x', 'return_indices': 'return_mask'};
149torch.nn.functional.adaptive_max_pool3d paddle.nn.functional.adaptive_max_pool3dc++下沉或装饰器 {'input': 'x', 'return_indices': 'return_mask'};
150torch.nn.functional.affine_grid paddle.nn.functional.affine_gridc++下沉或装饰器 {'size': 'out_shape'};
151torch.nn.functional.alpha_dropout paddle.nn.functional.alpha_dropoutc++下沉或装饰器 {'input': 'x'};
152torch.nn.functional.batch_norm paddle.nn.functional.batch_normc++下沉或装饰器 {'input': 'x', 'eps': 'epsilon'};
153torch.nn.functional.bilinear paddle.nn.functional.bilinearc++下沉或装饰器 {'input1': 'x1', 'input2': 'x2'};
154torch.nn.functional.binary_cross_entropy paddle.nn.functional.binary_cross_entropyc++下沉或装饰器 {'target': 'label'};
155torch.nn.functional.binary_cross_entropy_with_logits paddle.nn.functional.binary_cross_entropy_with_logitsc++下沉或装饰器 {'input': 'logit', 'target': 'label'};
156torch.nn.functional.celu paddle.nn.functional.celuc++下沉或装饰器 {'input': 'x'};
157torch.nn.functional.channel_shuffle paddle.nn.functional.channel_shufflec++下沉或装饰器 {'input': 'x'};
158torch.nn.functional.cosine_embedding_loss paddle.nn.functional.cosine_embedding_lossc++下沉或装饰器 {'target': 'label'};
159torch.nn.functional.cosine_similarity paddle.nn.functional.cosine_similarityc++下沉或装饰器 {'dim': 'axis'};
160torch.nn.functional.dropout2d paddle.nn.functional.dropout2dc++下沉或装饰器 {'input': 'x'};
161torch.nn.functional.dropout3d paddle.nn.functional.dropout3dc++下沉或装饰器 {'input': 'x'};
162torch.nn.functional.elu paddle.nn.functional.eluc++下沉或装饰器 {'input': 'x'};
163torch.nn.functional.elu_ paddle.nn.functional.elu_c++下沉或装饰器 {'input': 'x'};
164torch.nn.functional.fold paddle.nn.functional.foldc++下沉或装饰器 {'input': 'x', 'output_size': 'output_sizes', 'kernel_size': 'kernel_sizes', 'stride': 'strides', 'padding': 'paddings', 'dilation': 'dilations'};
165torch.nn.functional.gaussian_nll_loss paddle.nn.functional.gaussian_nll_lossc++下沉或装饰器 {'target': 'label', 'var': 'variance', 'eps': 'epsilon'};
166torch.nn.functional.glu paddle.nn.functional.gluc++下沉或装饰器 {'input': 'x', 'dim': 'axis'};
167torch.nn.functional.gumbel_softmax paddle.nn.functional.gumbel_softmaxc++下沉或装饰器 {'logits': 'x', 'tau': 'temperature', 'eps': '', 'dim': 'axis'};
168torch.nn.functional.hardshrink paddle.nn.functional.hardshrinkc++下沉或装饰器 {'input': 'x', 'lambd': 'threshold'};
169torch.nn.functional.hardsigmoid paddle.nn.functional.hardsigmoidc++下沉或装饰器 {'input': 'x'};
170torch.nn.functional.hardswish paddle.nn.functional.hardswishc++下沉或装饰器 {'input': 'x'};
171torch.nn.functional.hardtanh paddle.nn.functional.hardtanhc++下沉或装饰器 {'input': 'x', 'min_val': 'min', 'max_val': 'max'};
172torch.nn.functional.hardtanh_ paddle.nn.functional.hardtanh_c++下沉或装饰器 {'input': 'x', 'min_val': 'min', 'max_val': 'max'};
173torch.nn.functional.hinge_embedding_loss paddle.nn.functional.hinge_embedding_lossc++下沉或装饰器 {'target': 'label'};
174torch.nn.functional.instance_norm paddle.nn.functional.instance_normc++下沉或装饰器 {'input': 'x'};
175torch.nn.functional.kl_div paddle.nn.functional.kl_divc++下沉或装饰器 {'target': 'label'};
176torch.nn.functional.l1_loss paddle.nn.functional.l1_lossc++下沉或装饰器 {'target': 'label'};
177torch.nn.functional.leaky_relu_ paddle.nn.functional.leaky_relu_c++下沉或装饰器 {'input': 'x'};
178torch.nn.functional.local_response_norm paddle.nn.functional.local_response_normc++下沉或装饰器 {'input': 'x'};
179torch.nn.functional.lp_pool1d paddle.nn.functional.lp_pool1dc++下沉或装饰器 {'input': 'x'};
180torch.nn.functional.lp_pool2d paddle.nn.functional.lp_pool2dc++下沉或装饰器 {'input': 'x'};
181torch.nn.functional.margin_ranking_loss paddle.nn.functional.margin_ranking_lossc++下沉或装饰器 {'input1': 'input', 'input2': 'other', 'target': 'label'};
182torch.nn.functional.max_unpool1d paddle.nn.functional.max_unpool1dc++下沉或装饰器 {'input': 'x'};
183torch.nn.functional.max_unpool2d paddle.nn.functional.max_unpool2dc++下沉或装饰器 {'input': 'x'};
184torch.nn.functional.max_unpool3d paddle.nn.functional.max_unpool3dc++下沉或装饰器 {'input': 'x'};
185torch.nn.functional.mish paddle.nn.functional.mishc++下沉或装饰器 {'input': 'x'};
186torch.nn.functional.mse_loss paddle.nn.functional.mse_lossc++下沉或装饰器 {'target': 'label'};
187torch.nn.functional.multi_margin_loss paddle.nn.functional.multi_margin_lossc++下沉或装饰器 {'target': 'label'};
188torch.nn.functional.nll_loss paddle.nn.functional.nll_lossc++下沉或装饰器 {'target': 'label'};
189torch.nn.functional.pairwise_distance paddle.nn.functional.pairwise_distancec++下沉或装饰器 {'x1': 'x', 'x2': 'y', 'eps': 'epsilon'};
190torch.nn.functional.pixel_unshuffle paddle.nn.functional.pixel_unshufflec++下沉或装饰器 {'input': 'x'};
191torch.nn.functional.poisson_nll_loss paddle.nn.functional.poisson_nll_lossc++下沉或装饰器 {'target': 'label', 'eps': 'epsilon'};
192torch.nn.functional.prelu paddle.nn.functional.preluc++下沉或装饰器 {'input': 'x'};
193torch.nn.functional.relu6 paddle.nn.functional.relu6c++下沉或装饰器 {'input': 'x'};
194torch.nn.functional.relu_ paddle.nn.functional.relu_c++下沉或装饰器 {'input': 'x'};
195torch.nn.functional.rrelu paddle.nn.functional.rreluc++下沉或装饰器 {'input': 'x'};
196torch.nn.functional.selu paddle.nn.functional.seluc++下沉或装饰器 {'input': 'x'};
197torch.nn.functional.soft_margin_loss paddle.nn.functional.soft_margin_lossc++下沉或装饰器 {'target': 'label'};
198torch.nn.functional.softshrink paddle.nn.functional.softshrinkc++下沉或装饰器 {'input': 'x', 'lambd': 'threshold'};
199torch.nn.functional.softsign paddle.nn.functional.softsignc++下沉或装饰器 {'input': 'x'};
200torch.nn.functional.tanhshrink paddle.nn.functional.tanhshrinkc++下沉或装饰器 {'input': 'x'};
201torch.nn.functional.triplet_margin_loss paddle.nn.functional.triplet_margin_lossc++下沉或装饰器 {'anchor': 'input', 'eps': 'epsilon'};
202torch.nn.functional.triplet_margin_with_distance_loss paddle.nn.functional.triplet_margin_with_distance_lossc++下沉或装饰器 {'anchor': 'input'};
203torch.nn.utils.clip_grad_value_ paddle.nn.utils.clip_grad_value_c++下沉或装饰器 {'foreach': ''};
204torch.nn.utils.remove_weight_norm paddle.nn.utils.remove_weight_normc++下沉或装饰器 {'module': 'layer'};
205torch.nn.utils.spectral_norm paddle.nn.utils.spectral_normc++下沉或装饰器 {'module': 'layer'};
206torch.nn.utils.weight_norm paddle.nn.utils.weight_normc++下沉或装饰器 {'module': 'layer'};
207torch.poisson paddle.poissonc++下沉或装饰器 {'input': 'x'};
208torch.positive paddle.positivec++下沉或装饰器 {'input': 'x'};
209torch.rad2deg paddle.rad2degc++下沉或装饰器 {'input': 'x'}; 新增out;
210torch.randint_like paddle.randint_likec++下沉或装饰器 {'input': 'x', 'dtype': 'dtype'};
211torch.real paddle.realc++下沉或装饰器 {'input': 'x'};
212torch.reciprocal paddle.reciprocalc++下沉或装饰器 {'input': 'x'}; 新增out;
213torch.renorm paddle.renormc++下沉或装饰器 {'input': 'x', 'dim': 'axis', 'maxnorm': 'max_norm'}; 新增out;
214torch.rot90 paddle.rot90c++下沉或装饰器 {'input': 'x', 'dims': 'axes'};
215torch.row_stack paddle.row_stackc++下沉或装饰器 {'tensors': 'x'}; 新增out;
216torch.save paddle.savec++下沉或装饰器 {'f': 'path', 'pickle_module': '', 'pickle_protocol': 'protocol', '_use_new_zipfile_serialization': ''};
217torch.searchsorted paddle.searchsortedc++下沉或装饰器 {'input': 'values'}; 新增out;
218torch.select_scatter paddle.select_scatterc++下沉或装饰器 {'input': 'x', 'src': 'values', 'dim': 'axis'};
219torch.set_rng_state paddle.set_rng_statec++下沉或装饰器 {'new_state': 'state_list'};
220torch.sgn paddle.sgnc++下沉或装饰器 {'input': 'x'}; 新增out;
221torch.signbit paddle.signbitc++下沉或装饰器 {'input': 'x'}; 新增out;
222torch.sinh paddle.sinhc++下沉或装饰器 {'input': 'x'}; 新增out;
223torch.slice_scatter paddle.slice_scatterc++下沉或装饰器 {'input': 'x', 'src': 'value', 'dim': 'axes', 'start': 'starts', 'end': 'ends', 'step': 'strides'};
224torch.sparse.addmm paddle.sparse.addmmc++下沉或装饰器 {'mat1': 'x', 'mat2': 'y'};
225torch.take paddle.takec++下沉或装饰器 {'input': 'x'};
226torch.tensordot paddle.tensordotc++下沉或装饰器 {'a': 'x', 'b': 'y', 'dims': 'axes'}; 新增out;
227torch.tile paddle.tilec++下沉或装饰器 {'input': 'x', 'dims': 'repeat_times'};
228torch.trace paddle.tracec++下沉或装饰器 {'input': 'x'};
229torch.trapezoid paddle.trapezoidc++下沉或装饰器 {'dim': 'axis'};
230torch.tril_indices paddle.tril_indicesc++下沉或装饰器 {'dtype': 'dtype'};
231torch.triu_indices paddle.triu_indicesc++下沉或装饰器 {'dtype': 'dtype'};
232torch.unflatten paddle.unflattenc++下沉或装饰器 {'input': 'x', 'dim': 'axis', 'sizes': 'shape'};
233torch.vander paddle.vanderc++下沉或装饰器 {'N': 'n'};
234torch.vsplit paddle.vsplitc++下沉或装饰器 {'input': 'x', 'indices': 'num_or_indices', 'sections': 'num_or_indices'};
235torch.vstack paddle.vstackc++下沉或装饰器 {'tensors': 'x'}; 新增out;
236torch.Tensor.addmv_ paddle.mm新增API paddle.Tensor.addmv_;
237torch.Tensor.addr_ paddle.outer新增API paddle.Tensor.addr_;
238torch.Tensor.col_indices paddle.Tensor.cols仅调用方式不一致; 新增API paddle.Tensor.col_indices;
239torch.Tensor.crow_indices paddle.Tensor.crows仅调用方式不一致; 新增API paddle.Tensor.crow_indices;
240torch.Tensor.erf_ paddle.erf_仅调用方式不一致; 新增API paddle.Tensor.erf_;
241torch.Tensor.expm1_ paddle.expm1_仅调用方式不一致; 新增API paddle.Tensor.expm1_;
242torch.Tensor.fix_ paddle.Tensor.trunc_仅调用方式不一致; 新增API paddle.Tensor.fix_;
243torch.Tensor.matrix_exp paddle.linalg.matrix_exp仅调用方式不一致; 新增API paddle.Tensor.matrix_exp;
244torch.Tensor.mvlgamma_ paddle.Tensor.multigammaln_仅调用方式不一致; 新增API paddle.Tensor.mvlgamma_;
245torch.Tensor.negative_ paddle.Tensor.neg_仅调用方式不一致; 新增API paddle.Tensor.negative_;
246torch.Tensor.retain_grad paddle.Tensor.retain_grads仅调用方式不一致; 新增API paddle.Tensor.retain_grad;
247torch.Tensor.sparse_mask paddle.sparse.mask_as仅调用方式不一致; 新增API paddle.Tensor.sparse_mask;
248torch.Tensor.square_ paddle.square_仅调用方式不一致; 新增API paddle.Tensor.square_;
249torch.Tensor.to_sparse paddle.Tensor.to_sparse_coo仅调用方式不一致; 新增API paddle.Tensor.to_sparse;
250torch.addmv paddle.mm新增out; 新增API paddle.addmv;
251torch.addr paddle.outer新增out; 新增API paddle.addr;
252torch.autograd.enable_grad paddle.enable_grad仅调用方式不一致; 新增API paddle.autograd.enable_grad;
253torch.autograd.grad_mode.set_grad_enabled paddle.set_grad_enabled仅调用方式不一致; 新增API paddle.autograd.grad_mode.set_grad_enabled;
254torch.backends.cuda.is_built paddle.device.is_compiled_with_cuda仅调用方式不一致; 新增API paddle.backends.cuda.is_built;
255torch.backends.cudnn.version paddle.device.get_cudnn_version仅调用方式不一致; 新增API paddle.backends.cudnn.version;
256torch.distributions.constraints.Constraint paddle.distribution.constraint.Constraint仅调用方式不一致; 新增API paddle.distributions.constraints.Constraint;
257torch.distributions.distribution.Distribution.log_prob paddle.distribution.Distribution.log_prob仅调用方式不一致; 新增API paddle.distributions.distribution.Distribution.log_prob;
258torch.distributions.kl.kl_divergence paddle.distribution.kl_divergence仅调用方式不一致; 新增API paddle.distributions.kl.kl_divergence;
259torch.fix paddle.trunc新增out; 新增API paddle.fix;
260torch.histc paddle.histogram新增out; 新增API paddle.histc;
261torch.special.round paddle.round新增out; 新增API paddle.special.round;
262torch.trunc paddle.trunc新增out;
263torch.Tensor.fmod_ paddle.Tensor.mod_c++下沉或装饰器 {'other': 'y'}; 新增API paddle.Tensor.fmod_;
264torch.Tensor.hardshrink paddle.nn.functional.hardshrinkc++下沉或装饰器 {'lambd': 'threshold'}; 仅调用方式不一致; 新增API paddle.Tensor.hardshrink;
265torch.Tensor.igamma paddle.Tensor.gammaincc++下沉或装饰器 {'other': 'y'}; 新增API paddle.Tensor.igamma;
266torch.Tensor.igamma_ paddle.Tensor.gammainc_c++下沉或装饰器 {'other': 'y'}; 新增API paddle.Tensor.igamma_;
267torch.Tensor.igammac paddle.Tensor.gammainccc++下沉或装饰器 {'other': 'y'}; 新增API paddle.Tensor.igammac;
268torch.Tensor.igammac_ paddle.Tensor.gammaincc_c++下沉或装饰器 {'other': 'y'}; 新增API paddle.Tensor.igammac_;
269torch.Tensor.new_tensor paddle.to_tensorc++下沉或装饰器 {'device': 'place'}; 新增API paddle.Tensor.new_tensor;
270torch.Tensor.orgqr paddle.Tensor.householder_productc++下沉或装饰器 {'input2': 'tau'}; 新增API paddle.Tensor.orgqr;
271torch.Tensor.true_divide_ paddle.Tensor.divide_c++下沉或装饰器 {'other': 'y'}; 新增API paddle.Tensor.true_divide_;
272torch.alpha_dropout paddle.nn.functional.alpha_dropoutc++下沉或装饰器 {'input': 'x', 'train': 'training'}; 新增API paddle.alpha_dropout;
273torch.celu paddle.nn.functional.celuc++下沉或装饰器 {'input': 'x'}; 新增API paddle.celu;
274torch.cholesky paddle.linalg.choleskyc++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.cholesky;
275torch.cholesky_inverse paddle.linalg.cholesky_inversec++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.cholesky_inverse;
276torch.cholesky_solve paddle.linalg.cholesky_solvec++下沉或装饰器 {'input': 'x', 'input2': 'y'}; 新增out; 新增API paddle.cholesky_solve;
277torch.clamp_max paddle.clipc++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.clamp_max;
278torch.clamp_min paddle.clipc++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.clamp_min;
279torch.conj_physical paddle.conjc++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.conj_physical;
280torch.cov paddle.linalg.covc++下沉或装饰器 {'input': 'x', 'correction': 'ddof'}; 新增API paddle.cov;
281torch.det paddle.linalg.detc++下沉或装饰器 {'input': 'x'}; 新增API paddle.det;
282torch.dropout paddle.nn.functional.dropoutc++下沉或装饰器 {'input': 'x', 'train': 'training'}; 新增API paddle.dropout;
283torch.fmod paddle.modc++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out; 新增API paddle.fmod;
284torch.istft paddle.signal.istftc++下沉或装饰器 {'input': 'x'}; 新增API paddle.istft;
285torch.linalg.cholesky_ex paddle.linalg.choleskyc++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.linalg.cholesky_ex;
286torch.linalg.inv_ex paddle.linalg.invc++下沉或装饰器 {'A': 'x'}; 新增out; 新增API paddle.linalg.inv_ex;
287torch.linalg.lu_factor paddle.linalg.luc++下沉或装饰器 {'A': 'x'}; 新增out; 新增API paddle.linalg.lu_factor;
288torch.linalg.solve_triangular paddle.linalg.triangular_solvec++下沉或装饰器 {'input': 'x', 'B': 'y', 'left': 'transpose'}; 新增out; 新增API paddle.linalg.solve_triangular;
289torch.lu paddle.linalg.luc++下沉或装饰器 {'A': 'x'}; 新增out; 新增API paddle.lu;
290torch.lu_unpack paddle.linalg.lu_unpackc++下沉或装饰器 {'LU_data': 'x', 'LU_pivots': 'y', 'unpack_data': 'unpack_ludata'}; 新增out; 新增API paddle.lu_unpack;
291torch.movedim paddle.moveaxisc++下沉或装饰器 {'input': 'x'}; 新增API paddle.movedim;
292torch.mvlgamma paddle.multigammalnc++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.mvlgamma;
293torch.negative paddle.negc++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.negative;
294torch.nn.BatchNorm1d paddle.nn.BatchNorm1Dc++下沉或装饰器 {'eps': 'epsilon', 'affine':['weight_attr', 'bias_attr'], 'track_running_stats': '', 'device': '', 'dtype': ''}; 新增API paddle.nn.BatchNorm1d;
295torch.nn.BatchNorm2d paddle.nn.BatchNorm2Dc++下沉或装饰器 {'eps': 'epsilon', 'affine': ['weight_attr', 'bias_attr'], 'track_running_stats': '', 'device': '', 'dtype': ''}; 新增API paddle.nn.BatchNorm2d;
296torch.nn.BatchNorm3d paddle.nn.BatchNorm3Dc++下沉或装饰器 {'eps': 'epsilon', 'affine': ['weight_attr', 'bias_attr'], 'track_running_stats': '', 'device': '', 'dtype': ''}; 新增API paddle.nn.BatchNorm3d;
297torch.nn.InstanceNorm1d paddle.nn.InstanceNorm1Dc++下沉或装饰器 {'eps': 'epsilon', 'affine': ['weight_attr', 'bias_attr'], 'track_running_stats': '', 'device': '', 'dtype': ''}; 新增API paddle.nn.InstanceNorm1d;
298torch.nn.InstanceNorm2d @fishandunivers
paddle.nn.InstanceNorm2Dc++下沉或装饰器 {'eps': 'epsilon', 'affine': ['weight_attr', 'bias_attr'], 'track_running_stats': '', 'device': '', 'dtype': ''}; 新增API paddle.nn.InstanceNorm2d;
299torch.nn.InstanceNorm3d paddle.nn.InstanceNorm3Dc++下沉或装饰器 {'eps': 'epsilon', 'affine': ['weight_attr', 'bias_attr'], 'track_running_stats': '', 'device': '', 'dtype': ''}; 新增API paddle.nn.InstanceNorm3d;
300torch.nn.RNN paddle.nn.SimpleRNNc++下沉或装饰器 {'nonlinearity': 'activation', 'bias': ['bias_ih_attr', 'bias_hh_attr'], 'device': '', 'dtype': ''}; 新增API paddle.nn.RNN;
301torch.nn.functional.conv_transpose1d paddle.nn.functional.conv1d_transposec++下沉或装饰器 {'input': 'x'}; 新增API paddle.nn.functional.conv_transpose1d;
302torch.nn.functional.conv_transpose3d paddle.nn.functional.conv3d_transposec++下沉或装饰器 {'input': 'x'}; 新增API paddle.nn.functional.conv_transpose3d;
303torch.nn.functional.huber_loss paddle.nn.functional.smooth_l1_lossc++下沉或装饰器 {'target': 'label'}; 新增API paddle.nn.functional.huber_loss;
304torch.nn.functional.multilabel_margin_loss paddle.nn.functional.multi_label_margin_lossc++下沉或装饰器 {'target': 'label'}; 新增API paddle.nn.functional.multilabel_margin_loss;
305torch.nn.functional.multilabel_soft_margin_loss paddle.nn.functional.multi_label_soft_margin_lossc++下沉或装饰器 {'target': 'label'}; 新增API paddle.nn.functional.multilabel_soft_margin_loss;
306torch.nn.functional.pdist paddle.pdistc++下沉或装饰器 {'input': 'x'}; 新增API paddle.nn.functional.pdist;
307torch.nn.functional.rrelu_ paddle.nn.functional.rreluc++下沉或装饰器 {'input': 'x'}; 新增API paddle.nn.functional.rrelu_;
308torch.nn.functional.softmin paddle.nn.functional.softmaxc++下沉或装饰器 {'input': 'x', 'dim': 'axis', '_stacklevel': '', 'dtype': 'dtype'}; 新增API paddle.nn.functional.softmin;
309torch.nn.functional.threshold paddle.nn.functional.thresholded_reluc++下沉或装饰器 {'input': 'x'}; 新增API paddle.nn.functional.threshold;
310torch.nn.functional.threshold_ paddle.nn.functional.thresholded_relu_c++下沉或装饰器 {'input': 'x'}; 新增API paddle.nn.functional.threshold_;
311torch.nn.functional.upsample_nearest paddle.nn.functional.upsamplec++下沉或装饰器 {'input': 'x'}; 新增API paddle.nn.functional.upsample_nearest;
312torch.nn.utils.parametrizations.spectral_norm paddle.nn.utils.spectral_normc++下沉或装饰器 {'module': 'layer'}; 新增API paddle.nn.utils.parametrizations.spectral_norm;
313torch.nn.utils.parametrizations.weight_norm paddle.nn.utils.weight_normc++下沉或装饰器 {'module': 'layer'}; 新增API paddle.nn.utils.parametrizations.weight_norm;
314torch.ormqr paddle.linalg.ormqrc++下沉或装饰器 {'input': 'x', 'input2': 'tau', 'input3': 'y'}; 新增out; 新增API paddle.ormqr;
315torch.pca_lowrank paddle.linalg.pca_lowrankc++下沉或装饰器 {'A': 'x'}; 新增API paddle.pca_lowrank;
316torch.pinverse paddle.linalg.pinvc++下沉或装饰器 {'input': 'x'}; 新增API paddle.pinverse;
317torch.qr paddle.linalg.qrc++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.qr;
318torch.rrelu paddle.nn.functional.rreluc++下沉或装饰器 {'input': 'x'}; 新增API paddle.rrelu;
319torch.selu paddle.nn.functional.seluc++下沉或装饰器 {'input': 'x'}; 新增API paddle.selu;
320torch.set_default_tensor_type paddle.set_default_dtypec++下沉或装饰器 {'t': 'd'}; 新增API paddle.set_default_tensor_type;
321torch.sparse.FloatTensor paddle.sparse.sparse_coo_tensorc++下沉或装饰器 {'size': 'shape', 'device': 'place'}; 新增API paddle.sparse.FloatTensor;
322torch.sparse.mm paddle.sparse.matmulc++下沉或装饰器 {'sparse': 'x', 'dense': 'y'}; 新增API paddle.sparse.mm;
323torch.sparse.softmax paddle.sparse.nn.functional.softmaxc++下沉或装饰器 {'input': 'x', 'dim': 'axis'}; 新增API paddle.sparse.softmax;
324torch.sparse_coo_tensor paddle.sparse.sparse_coo_tensorc++下沉或装饰器 {'size': 'shape', 'dtype': 'dtype', 'device': 'place', 'check_invariants': ''}; 新增API paddle.sparse_coo_tensor;
325torch.sparse_csr_tensor paddle.sparse.sparse_csr_tensorc++下沉或装饰器 {'crow_indices': 'crows', 'col_indices': 'cols', 'size': 'shape', 'dtype': 'dtype', 'device': 'place', 'pin_memory': '', 'check_invariants': ''}; 新增API paddle.sparse_csr_tensor;
326torch.special.digamma paddle.digammac++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.digamma;
327torch.special.erf paddle.erfc++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.erf;
328torch.special.erfinv paddle.erfinvc++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.erfinv;
329torch.special.gammainc paddle.gammaincc++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out; 新增API paddle.special.gammainc;
330torch.special.gammaincc paddle.gammainccc++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out; 新增API paddle.special.gammaincc;
331torch.special.gammaln paddle.gammalnc++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.gammaln;
332torch.special.i0 paddle.i0c++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.i0;
333torch.special.i0e paddle.i0ec++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.i0e;
334torch.special.i1 paddle.i1c++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.i1;
335torch.special.i1e paddle.i1ec++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.i1e;
336torch.special.log1p paddle.log1pc++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.log1p;
337torch.special.log_softmax paddle.nn.functional.log_softmaxc++下沉或装饰器 {'input': 'x', 'dim': 'axis', 'dtype': 'dtype'}; 新增API paddle.special.log_softmax;
338torch.special.multigammaln paddle.multigammalnc++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.multigammaln;
339torch.special.polygamma paddle.polygammac++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.polygamma;
340torch.special.psi paddle.digammac++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.psi;
341torch.special.sinc paddle.sincc++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.sinc;
342torch.stft paddle.signal.stftc++下沉或装饰器 {'input': 'x'}; 新增API paddle.stft;
343torch.svd_lowrank paddle.linalg.svd_lowrankc++下沉或装饰器 {'A': 'x'}; 新增API paddle.svd_lowrank;
344torch.symeig paddle.linalg.eighc++下沉或装饰器 {'input': 'x', 'upper': 'UPLO'}; 新增out; 新增API paddle.symeig;
345torch.triangular_solve paddle.linalg.triangular_solvec++下沉或装饰器 {'input': 'y', 'A': 'x'}; 新增out; 新增API paddle.triangular_solve;
346torch.vdot paddle.dotc++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out; 新增API paddle.vdot;
347torch.Tensor.aminmax  新增API
348torch.Tensor.cuda paddle.Tensor.cuda支持int及paddle.device输入
349torch.Tensor.diag paddle.Tensor.diag方案2:c++下沉或装饰器 {'diagonal': 'offset'}
350torch.Tensor.fill_diagonal_ paddle.Tensor.fill_diagonal_方案2:c++下沉或装饰器 {'fill_value': 'value'}
351torch.Tensor.nelement paddle.Tensor.size方案4:新增API,仅调用方式不一致 paddle.Tensor.size
352torch.Tensor.std paddle.Tensor.std方案2:c++下沉或装饰器 {'dim': 'axis', 'correction': 'unbiased'}
353torch._assert  新增API
354torch.addcmul  新增API
355torch.allclose paddle.allclose方案2:c++下沉或装饰器 {'input': 'x', 'other': 'y'}
356torch.bitwise_or paddle.bitwise_or方案2:c++下沉或装饰器 {'input': 'x', 'other': 'y'};新增out
357torch.conv_transpose2d paddle.nn.functional.conv2d_transpose新增API别名,新增装饰器
358torch.cuda.amp.GradScaler paddle.amp.GradScaler方案2:c++下沉或装饰器 {'init_scale': 'init_loss_scaling', 'growth_factor': 'incr_ratio', 'backoff_factor': 'decr_ratio', 'growth_interval': 'incr_every_n_steps', 'enabled': 'enable'}
359torch.deg2rad paddle.deg2rad方案2:c++下沉或装饰器 {'input': 'x'};新增out
360torch.inverse paddle.inverse方案2:c++下沉或装饰器 {'input': 'x'};新增out
361torch.lerp paddle.lerp方案2:c++下沉或装饰器 {'input': 'x', 'end': 'y'};新增out
362torch.mm paddle.mm新增out参数
363torch.nn.ConvTranspose2d paddle.nn.Conv2DTranspose新增API别名,新增bias、device、dtype、padding_mode参数
364torch.nn.Module.train paddle.nn.Layer.train方案4:新增参数 ['mode']
365torch.nn.Module.zero_grad paddle.nn.Layer.clear_gradients新增API
366torch.nn.ParameterDict paddle.nn.ParameterDict方案2:c++下沉或装饰器 {'values': 'parameters'}
367torch.nn.functional.conv_transpose2d paddle.nn.functional.conv2d_transpose新增API别名+装饰器
368torch.nn.functional.leaky_relu paddle.nn.functional.leaky_relu方案2:c++下沉或装饰器 {'input': 'x'}
369torch.nn.functional.log_softmax paddle.nn.functional.log_softmax新增 paddle.compat.nn.functional.log_softmax,完全对齐torch,参考paddle.compat.nn.functional.softmax的实现
370torch.nn.functional.relu paddle.nn.functional.relu方案2:c++下沉或装饰器 {'input': 'x'}
371torch.optim.Optimizer.step paddle.optimizer.Optimizer.step方案4:新增参数 ['closure']
372torch.randint paddle.randint方案2:c++下沉或装饰器 {'size': 'shape', 'dtype': 'dtype'};新增out
373torch.random.get_rng_state  新增API别名
374torch.relu paddle.nn.functional.relu方案2:c++下沉或装饰器 {'input': 'x'}
375torch.special.logit paddle.logit新增API别名;装饰器 {'input': 'x'};新增out
376torch.square paddle.square方案2:c++下沉或装饰器 {'input': 'x'};新增out
377torch.std paddle.std方案2:c++下沉或装饰器 {'input': 'x', 'dim': 'axis', 'correction': 'unbiased'};新增out
378torch.tan paddle.tan方案2:c++下沉或装饰器 {'input': 'x'}
379torch.Tensor.exponential_ paddle.Tensor.exponential_方案2:c++下沉或装饰器 {'lambd': 'lam'}
380torch.Tensor.is_cpu  新增API
381torch.Tensor.numpy paddle.Tensor.numpy新增参数force
382torch.Tensor.tile paddle.Tensor.tile装饰器 {'dims': 'repeat_times'}
383torch.Tensor.type paddle.Tensor.astype新增API
384torch.nn.utils.clip_grad_norm_ paddle.nn.utils.clip_grad_norm_装饰器 {'foreach': ''};忽略foreach
385torch.nn.functional.pixel_shuffle paddle.nn.functional.pixel_shuffle方案2:c++下沉或装饰器 {'input': 'x'}

看板信息

任务方向任务数量提交作品 / 任务认领提交率完成完成率
PaddlePaddle API兼容性增强38513 / 223.38%30.78%

统计信息

排名不分先后@enkilee (1)@Manfredss (1)@algorithm1832 (1)

Metadata

Metadata

Type

No type

Projects

Status

In Progress

Milestone

No milestone

Relationships

None yet

Development

No branches or pull requests

Issue actions


    [8]ページ先頭

    ©2009-2025 Movatter.jp