💎一站式轻松地调用各大LLM模型接口,支持GPT4、智谱、豆包、星火、月之暗面及文生图、文生视频 广告
# 激活函数(activation) > 激活函数是用来加入非线性因素的,提高神经网络对模型的表达能力,解决线性模型所不能解决的问题。 ## 效果对比 其他条件相同,只改变激活函数情况下 > relu准确率为:0.9554 > tanh准确率为:0.9411 > sigmoid准确率为:0.9105