首页
友情链接
全景相册
随机剧照
本站声明
壁纸
Search
1
九寨沟
2,302 阅读
2
三款离线OCR对比(供下载)
2,263 阅读
3
台湾-景(阿里山,101,故宫,日月潭)
2,242 阅读
4
精明鼠多功能寻线王 NF-802 拆解
1,632 阅读
5
我想出去浪(多图杀猫,39张)
1,541 阅读
摄影类
茶余饭后
软件类
登录
Search
标签搜索
园博园
AI
甘坑
锦绣园
台湾
大梅沙
沙井
大沙河
博物馆
开源
一个公园
猫
文和友
中心公园
荔枝公园
万景楼
华强北
懒人包
胶片
相机
傻木摄影
累计撰写
475
篇文章
累计收到
76
条评论
首页
栏目
摄影类
茶余饭后
软件类
页面
友情链接
全景相册
随机剧照
本站声明
壁纸
搜索到
26
篇与
AI
的结果
2024-12-21
什么是人工智能(AI)
什么是人工智能(AI) ![人工智能.jpg](/usr/uploads/2024/12/664759336.jpg) 李开复老师用通俗的语言来解释,人工智能、机器学习、神经网络、深度学习……这些词到底是什么意思?彼此有什么关系? 我觉得,这些介绍对理解 AI 的体系,挺有启发的。它们分散在各个章节,我将它们整理在一起。 为了行文连贯,我没有完全照搬原文,而是用自己的语言重新叙述,如果有错误,也归咎我。 (1)人工智能 1956年夏天,计算机科学家约翰·麦卡锡(John McCarthy)首次提出“人工智能”(AI)这个概念。 人工智能指的是,通过软件和硬件,来完成通常需要人类智能才能完成的任务。它的研究对象,就是在机器上模拟人类智能。 (2)机器学习 早期,人工智能研究分成两个阵营。 第一个阵营是规则式(rule-based)方法,又称专家系统(expert systems),指的是人类写好一系列逻辑规则,来教导计算机如何思考。 可想而知,对于复杂的、大规模的现实问题,很难写出完备的、明确的规则。所以,这种方法的进展一直很有限。 第二个阵营就是机器学习(machine learning),指的是没有预置的规则,只是把材料提供给计算机,让机器通过自我学习,自己发现规则,给出结果。 (3)神经网络 神经网络(neural network)是机器学习的一种主要形式。 神经网络就是在机器上模拟人脑的结构,构建类似生物神经元的计算网络来处理信息。 一个计算节点就是一个神经元,大量的计算节点组成网络,进行协同计算。 神经网络需要极大的算力,以及海量的训练材料。以前,这是难以做到的,所以20世纪70年代开始,就陷入了停滞,长期没有进展。 (4)深度学习 深度学习是神经网络的一种实现方法,在20世纪80年代由杰弗里·辛顿提出。它让神经网络研究重新复活。 深度学习是一种让多层神经元可以进行有效计算的方法,大大提高了神经网络的性能。“深度学习”这个名字,就是比喻多层神经元的自主学习过程。 多层神经元包括一个输入层和一个输出层,它们之间有很多中间层(又称隐藏层)。以前,计算机算力有限,只能支撑一两个中间层,深度学习使得我们可以构建成千上万个中间层的网络,具有极大的“深度”。 (5)Transformer 早些年,深度学习用到的方法是卷积神经网络(CNN)和循环神经网络(RNN)。 2017年,谷歌的研究人员发明了一种新的深度学习处理方法,叫做 Transformer(转换器)。 Transformer 不同于以前的方法,不再一个个处理输入的单词,而是一次性处理整个输入,对每个词分配不同的权重。 这种方法直接导致了2022年 ChatGPT 和后来无数生成式 AI 模型的诞生,是神经网络和深度学习目前的主流方法。 由于基于 Transformer 的模型需要一次性处理整个输入,所以都有“上下文大小”这个指标,指的是一次可以处理的最大输入。 比如,GPT-4 Turbo 的上下文是 128k 个 Token,相当于一次性读取超过300页的文本。上下文越大,模型能够考虑的信息就越多,生成的回答也就越相关和连贯,相应地,所需要的算力也就越多。 [本文转载 ](https://github.com/ruanyf/weekly/blob/master/docs/issue-330.md)
2024年12月21日
19 阅读
0 评论
0 点赞
2024-12-01
Clarity-Refiners-UI,图像增强,懒人包
用于图像增强,可以理解为将模糊的图片变清晰 将图像重绘放大超分 jian27打包 [https://www.jian27.com/html/2619.html](https://www.jian27.com/html/2619.html) Pinokiofactory/Clarity-Refiners-UI 是一个专注于图像增强的开源项目,它基于 Pinokio UI 框架,并融合了多项先进的图像处理技术。 该项目旨在为用户提供一种高效、易用且功能强大的图像增强解决方案。 项目背景与目的 它起源于对图像清晰度和细节提升的追求。 通过整合和优化现有的图像处理算法,该项目旨在为用户提供一个能够轻松实现图像质量飞跃的平台。 无论是专业摄影师、设计师还是普通用户,都能通过这款工具轻松提升图像的视觉效果。 可以单张超分,也可以批量操作 6gb显卡即可畅玩 ![运行界面.jpg](/usr/uploads/2024/12/3854518266.jpg) 本站负优化内容 简化软件目录 简化web软件界面 简化软件包体积 懒人包打包上传中 下载链接回复后刷新可见 隐藏内容,请前往内页查看详情
2024年12月01日
142 阅读
0 评论
1 点赞
2024-11-21
Diffusers-Image-Community,AI扩图,新版懒人包
AI扩图的 使用非常简单,已经将原界面尽量简化了 就不做过多介绍了 实在不懂,自己去看原作者刘锐视频讲解 我有B站账号,但是转正还得做很多题 还是免了 转载自刘锐博客 [https://www.bilibili.com/video/BV1QgSKYPEim/?spm_id_from=333.999.0.0](https://www.bilibili.com/video/BV1QgSKYPEim/?spm_id_from=333.999.0.0) 项目地址: [https://github.com/ai-anchorite/Diffusers-Image-Community](https://github.com/ai-anchorite/Diffusers-Image-Community) ![运行截图.jpg](/usr/uploads/2024/11/3323005742.jpg) ![原.jpg](/usr/uploads/2024/11/2872669775.jpg) ![目录结构.jpg](/usr/uploads/2024/11/2385379721.jpg) 本站独家负优化 首先减肥了 原版18.4gb,本站删除了3gb,现在只有15.4gb 粗略汉化了界面 界面做了删减 内存显卡都建议16gb起 显卡8gb可以用,稍慢点 实测显存占用14.5gb PS:回宿舍测试发现代码有些问题 例如我默认设置的是1:1,实际是9:16 用生成的图做原图似乎也有些问题 但是我不想再改了 因为宿舍断网了 不影响使用 也就玩完,没什么大碍 隐藏内容,请前往内页查看详情
2024年11月21日
269 阅读
0 评论
0 点赞
2024-11-15
OmniGen,AI文生图,图生图,身份保留,懒人包
OmniGen,AI文生图,图生图,身份保留,懒人包 干啥的? 你可以上传一到三张参考图片 根据参考图片进行融合 你可以上传一张照片,叫模型给你加上一副眼镜,同时照片身份会被保留 你可以直接写提示词,让模型给你画图 更多用法还需要你自己琢磨 转载自刘悦的技术博客 [https://www.bilibili.com/video/BV1BAS9Y5EHk/?spm_id_from=333.999.0.0](https://www.bilibili.com/video/BV1BAS9Y5EHk/?spm_id_from=333.999.0.0) 刘悦的技术博客 [https://github.com/v3ucn](https://github.com/v3ucn) 本项目开源,开源地址 [https://github.com/Manni1000/OmniGen](https://github.com/Manni1000/OmniGen) 本项目带有低显存模式,只需要6gb显存即可出图 默认勾选低显存模式,4060 8gb 占用6gb显存,1024分辨率出图大约75秒一张 本站负优化内容: 优化了目录结构 优化了web界面 上传图片即自动加上 img>
2024年11月15日
186 阅读
1 评论
1 点赞
2024-11-14
nstantIR,AI图像修复
nstantIR 是一个在 GitHub 上的开源项目 InstantIR 采用了深度学习技术。通过使用深度神经网络,InstantIR 学习图像的特征,从而更好地理解图像的内容。 用于图像的相似度计算,实现快速准确的还原修复受损的图片。 jian27打包 [https://www.jian27.com/html/2418.html](https://www.jian27.com/html/2418.html) 本站二次负优化 减少了体积,减的不多 主要优化了web界面,将我觉得不需要的控件做了隐藏 出图后进行显存回收 固定种子改成了随机种子 原版30步默认,改成了10步 实测感觉影响不大 对电脑硬件有较高要求 内存至少24gb 显存至少20gb 我的4060 16gb出图很卡,前面3张每张100秒左右 1024分辨率的 后面好像更卡了 没有高配硬件,不想优化了 ![运行图.jpg](/usr/uploads/2024/11/1773878333.jpg) ![资源消耗.jpg](/usr/uploads/2024/11/2010613286.jpg) 17.35gb 回复可见 隐藏内容,请前往内页查看详情
2024年11月14日
94 阅读
0 评论
0 点赞
2024-11-01
ComfyUI-精简版,懒人包
ComfyUI-精简版,懒人包 目录结构 ![目录.png](/usr/uploads/2024/11/63722349.png) 运行界面 运行后如果不是下图的工作流,可能需要手工载入工作流 ![运行.jpg](/usr/uploads/2024/11/582269788.jpg) 4060 8gb显卡,显存占用6.8,实际占用6gb左右 4060 16gb显卡,显存占用最高达14.7gb 程序会针对实际硬件资源充分利用显存 ![资源占用.jpg](/usr/uploads/2024/11/2648865332.jpg) 不会用的可以百度,不喂饭 本站负优化版,10.7gb,带模型,解压即用 硬件要求,16gb内存,8gb黄皮显存 回复可见 隐藏内容,请前往内页查看详情
2024年11月01日
148 阅读
0 评论
2 点赞
2024-10-24
F5-TTS-main,根据参考语音生成语音,懒人包
F5-TTS-main,根据参考语音生成语音 整合包制作:数字生命卡兹克 我不认识他,整合包来自群友分享,在此基础做了界面负优化,把我不想看到的都删除了 用法,上传一段示例语音,例如猪八戒的 打上一段文字,例如唐僧念的那段经文 生成的结果就是,猪八戒的音色念唐僧的经文 可以理解为语音克隆 参考语音只需要15秒的范本即可 已精简界面,已删除不需要的模型 原版功能挺多的,还有什么多人对话那种,例如悟空和八戒对话 这些都删除了 为什么删除? 就连简单的文本生成语音都是玩具级别 还谈什么多人对话? 经测试,有吞字想象,有不连贯想象,有标点符号停顿过短想象(抢读) 等等等等一系列问题,如果想拿去商用,还是算了 只是玩具级别,发出来只是让大伙看看,目前AI到了什么境界 ![运行界面.jpg](/usr/uploads/2024/10/2096390088.jpg) ![资源占用.jpg](/usr/uploads/2024/10/192467872.jpg) 精简后的压缩包4.3gb,原版大小11gb 下载链接 [https://pan.baidu.com/s/11HKrYtgsrArF8kbTP1Vh1g?pwd=gpcb](https://pan.baidu.com/s/11HKrYtgsrArF8kbTP1Vh1g?pwd=gpcb)
2024年10月24日
74 阅读
0 评论
0 点赞
1
2
...
4
网站版权本人所有,你要有本事,盗版不究。 sam@gpcb.net