开发者:上海品职教育科技有限公司 隐私政策详情

应用版本:4.2.11(IOS)|3.2.5(安卓)APP下载

Kathy苏苏 · 2023年03月23日

b和c

NO.PZ2022120202000008

问题如下:

State whether each of the following statements is true or false and explain why.

a. A neural network with no activation function is a linear regression model.

b. A neural network with no hidden layer is a linear regression model.

c. The bias in a neural network acts like the constant term in a regression.

选项:

解释:

a. True. It is the activation function that adds nonlinearity to the network architecture; without it, the model would simply be a linear combination of a linear combination of the features, which would overall result in the output variable being a linear combination of the input variables.

b. False. An activation function might be applied to the inputs to get the outputs. An example of this is logistic regression which applies the sigmoid function to the inputs.

c. True. The bias is analogous to the constant term in a regression and it allows for situations where the weighted inputs to a particular layer do not have the same mean as the output.

b和c请讲解下,谢谢

3 个答案

品职答疑小助手雍 · 2023年03月25日

它只是一种function,想在哪用在哪都可以用的,讲义红框截图里,就是最后处理hidden layer的输出数据最后算output时候用的。

品职答疑小助手雍 · 2023年03月24日

结果上的话,只要没有activation function,那就剩下线性关系了,线性回归里可以有很多input X,但是只有一个Y。

单从定义上说,activation function就是带来非线性关系的,所以A说没有activation function,那就剩线性关系。B没说没有activation function,那就可能还有,不能说只剩线性关系。

Kathy苏苏 · 2023年03月24日

但activation function 不就在hidden layer里吗?

品职答疑小助手雍 · 2023年03月24日

同学你好,

b:神经网络就算没有hidden layer, 它output都不一定是一个啊,线性回归的output是一个(因变量y),所以不等同。

c:直接对应讲义101页的公式看一下,前面Hxxx带着权重项就有点想回归里的bx(beta*自变量),最后那个w就像是回归里的常数项,作用就是前面的weight*Hxxx加起来不等于y的时候,就会有一个常数项填缺。

Kathy苏苏 · 2023年03月24日

老师,根据您对B的讲解,怎么理解A是对的?谢谢

  • 3

    回答
  • 0

    关注
  • 248

    浏览
相关问题