https://api.vvhan.com/api/avatar/boy

技术博客分享

vue3-setup

我们之前所讲的基本都是vue2的一些内容,但是是可以在vue3中使用的。vue3相对于vue2来说就像是pro 和 promax的区别一个升级的版本需要注意的是vue3依旧兼容大部分的vue2写法,只是有一部分不再兼容,这部分大家可以自行搜索。

Linux终端探幽基础指令集中迷宫寻宝

在 more 的时候,我们并没有办法向前面翻, 只能往后面看 但若使用了 less 时,就可以使用 [pageup][pagedown] 等按键的功能来往前往后翻看文件,更容易用来查看一个文件的内容!当我们使用cat指令想要获取一个文件当中的内容时,如果我们不指定文件,则默认到键盘文件当中获取(读取)内容,如果我们使用(<)输入重定向,那我们则在指定文件当中获取(读取)内容!当我们重定向的文件存在时,如果文件中原来有内容,重定向后,原来的内容就会被我们写入的内容覆盖!如果我们什么都不写入,则会清空文件!

LLM3-Transformer-架构

大多数现代的大规模语言模型(LLMs)依赖于 Transformer 架构,这是一种在 2017 年的论文《注意力就是你所需要的》(https://arxiv.org/abs/1706.03762)中提出的深度神经网络架构。为了理解 LLMs,必须要先了解最初的 Transformer,它是为机器翻译任务而开发的,用于将英文文本翻译成德文和法文。简化版的 Transformer 架构如图 1.4 所示。图 1.4简化版的原始 Transformer 架构图示,它是一个用于语言翻译的深度学习模型。

人工智能Python在Scikit-Learn中使用网格搜索对决策树调参

在鸢尾花数据集(n=150)中,通过三维参数空间遍历(「criterion/max_depth/min_samples_leaf」)结合6折分层验证,实现决策树准确率从92.1%至97.3%的跃升。实验揭示:信息熵准则在深层树(depth=8)时展现分类优势,叶节点约束(min_samples=3)有效平衡过拟合风险^,但计算成本增加14.3%。该范式为中小型数据集(n<10^3)的模型调优提供方法论参考,需警惕参数交互的非线性效应。

Linux进程调度切换_命令行参数上

1.释放代码和数据2.将退出信息(任务完成情况)保存在task_struct内(int code.....)3.task_struct被维护,给父进程管理进程创建时,先创建数据结构,再加载代码和数据,退出顺序是反的如果进程退出前父进程已经没了,会给操作系统进程管理(systemd)子进程退出,父进程不接收他的退出信息,子进程处于僵尸状态,造成内存泄漏(Z状态一直不退出,PCB一直不释放(必须给父进程退出信息))