import tensorflow as tf
# Build a graph.
a = tf.constant(5.0)
b = tf.constant(6.0)
c = a * b
# Launch the graph in a session.
sess = tf.Session()
# Evaluate the tensor `c`.
print(sess.run(c))
例如对于上面的代码,sess.run(c)本质上等于调用一个函数
不知道为什么要搞成这个鬼样
对于tensor的各种动态数组等概念,在C++、Python中也有啊。各种简便操作,无非就是函数配置不同参数的问题,实际上还是函数调用啊。没有搞清楚这种概念的优点在哪里
我觉得深度学习框架,像Darknet之类的就挺好的啊
Tensorflow,Pytorch等定义了自己的一套规则,实际上毫无意义,让人学习了一个自定义的新规则而已
很多时候会搞到一起,没有函数调用,就缺少模块的概念。当然,这个跟编程习惯也有关系。