我从文档中了解到,torch.as_tensor()
和都torch.asarray()
返回与输入共享内存的张量data
,否则返回副本。我只注意到参数中的两个区别:
- 我可以隐式地传递
copy=False
给torch.asarray()
需要共享内存,如果无法复制则获取异常,或者我可以传递copy=True
给需要复制。- 我可以
requires_grad
在 中指定torch.asarray()
。
那么,是否torch.asarray()
只提供比更多的功能torch.as_tensor()
?
但是如果我只是想尽可能地获取共享内存,我应该使用什么:torch.asarray()
或者torch.as_tensor()
?性能上有什么区别吗?