AI编程工具

通义灵码

通义灵码是阿里推出的免费A!编程工具,基于通义大模型,作为 GitHub copilot 国内的平替产品,提供行级/函数级实时续写、自然语言生成代码、单元测试生成、代码注释生成、代码解释、研发智能问答、异常报错排査等能力,并针对阿里云 SDK/AP! 的使用场景调优,为开发者带来高效、流畅的编码体验。 通义灵码的主要功能 1.行/函数级实时续写: 在编码的过程中,根据上下文和当前语法,为你自动预测和生成建议代码,你只需单击 Tab 键即可采纳。 2.自然语言生成代码: 在编辑器中,通过自然语言描述你想要的功能,根据你的描述和上下文,支持在编辑器区直接生成代码及相关注释,编码心流不间断。 3.代码优化生成: 帮你识别代码中的问题,并提供代码优化建议 4.单元测试生成: 支持根据 Jnit、Mockito、spring Test、unit test、pytest 等框架生成单元测试以及单元测试相关代码解释 5.代码注释生成: 一键生成方法注释及行间注释,节省你写代码注释的时间,有效提升代码可读性和注释覆盖率。 6.代码解释: 支持 30 多种语言的识别,选中代码后可自动识别编程语言并生成代码解释。跨越语言的边界,让你快速了解代码逻辑和功能设计。 7.研发智能问答: 基于海量研发文档、产品文档、通用研发知识、阿里云的云服务文档和 SDK/OenAP! 文档等进行问答训练,为你答疑解惑,助你轻松解决研发问题。 如何使用通义灵码 一、对于 Visual Studio Code 1.已安装 Visual Studio Code 的情况下,在侧边导航上点击扩展 2.搜索通义灵码(TONGYl Lingma),找到通义灵码后点击安装 3.重启 Visual Studio Code,重启成功后登录阿里云账号,即刻开启智能编码之旅 二、对于 JetBrains IDEs 1.以 |nteli IDEA 为例,已安装 Inteli IDEA 的情况下,点击设置 2.点击导航-插件,打开应用市场,搜索通义灵码(TONGYILingma),找到通义灵码后点击安装 3.重启 IntelliJDEA,重启成功后登录阿里云账号,即刻开启智能编码之旅。

GitHub Copilot

GitHub copilot是由GitHub与OpenA!合作开发的一款革命性的智能代码补全和生成工具,旨在帮助开发人员更高效、更准确、更快地编写代码。这款由人工智能驱动的A!编程助手与程序员常用的代码编辑器无缝集成,超过数百万人在使用,对全球各地的开发者来说都是代码神器和得力助手。 GitHub Copilot的主要功能 1.代码建议和自动补全。GitHub.Copilot在你输入时提供实时的代码建议和自动补全,大大减少编码时间并减少错误 2.自然语言理解。可以理解自然语言査询,并根据对你想要实现的内容的纯英语描述生成代码片段。 3.支持多种编程语言。GitHub Copilot支持多种编程语言,从Python和javaScript到C++和Ruby,确保与主流的语言兼容。 4.上下文注释。为编写的代码生成描述性注释,帮助你和你的合作者理解代码的目的和功能。 5.代码重构。GitHub Copilot会智能建议代码改进、重构选项和最佳实践,帮助你编写干净和优化的代码。 6.代码示例。你可以轻松搜索并插入来自各种来源的代码示例,节省重新发明轮子的麻烦。 如何使用GitHub copilot 1.安装GitHub copilot插件。在开始使用之前,需要在你常用的代码编辑器中安装GitHub Copilot扩展,如Visual studio Code和letBrain旗下的系列IDES. 2.登录GitHub账号。使用你的GitHub帐户登录验证,以访问GitHub Copilot的全部功能并接收定期更新。 3.安装和验证完成后,GitHub Copilot将无缝集成到你的编程环境中,随时为你提供帮助。 4.添加注释作为提示词生成代码,在编写代码时,你也可以实时看到GitHub Copilot提供建议、自动完成甚至整个代码块。 GitHub copilot的产品价格 1. GitHub Copilot 提供免费 30 天的试用,免费试用结束后,需要付费订阅。 2.对于个人来说,每月10美元(年付的话一年100美元)。 3.对于商业版来说,每个用户每月19美元。

CodeWhisperer

Codewhisperer是亚马逊最新发布的A!编程软件,经过数十亿行代码的训练,可以根据开发人员的注释和现有代码实时生成从片段到完整函数的代码建议。减轻赶时的编程任务,和加快使用不乳悉的AP时构建代码的读度,目前、亚马逊的codewhispere针对个人用户是完全负碧使用的,无限制次数的代码建议生成和每月50次的代码安全扫描! CodeWhisperer的主要功能 1.实时生成代码建议。理解用自然语言(英语)编写的注释,可以实时生成函数级和块级代码建议以提高开发人员的工作效率。 2.支持流行的编程语言和IDE。为多种编程语言提供基于AI的代码建议,包括 Python、Java、javascript等,并与VS Code和etBrains旗下的系列IDE兼容。 3.内置安全扫描。使用 CodeWhisperer,开发者可以扫描 Java、JavaScript 和 Python 项目以检测难以发现的漏洞。 4.开源代码引用跟踪器。提供内置的引用跟踪器,用于检测代码建议是否可能与开源训练数据相似,并可以标记此类建议。 5.可与 AWS 服务配合使用。通过提供针对 AWS API 进行优化的代码建议,让开发人员更高效地使用 AWS 服务。 CodeWhisperer的产品价格 1.对于个人开发人员,可以免费使用 CodeWhisperer,支持不限次数地生成代码建议并免费使用引用跟踪器,且每月可免费进行 50 次代码扫描。 2.对于企业组织来说,专业版本的价格是每人每月19美元,提供500次代码安全扫描。

Cody

Cody是由代码搜索浏览工具[Sourcegraph」推出的一个A!代码助手,通过阅读整个代码库和代码图,帮助开发人员写代码并回答问题。Cody使用Sourcegraph的代码图和大型语言模型LLMs)的组合,以消除人工开发中的繁琐任务并保持开发人员的工作流程。 你可以把Cody当作是你的代码助手,该自动编程工具已经阅读了开源中的所有代码,stackOverfow上的所有问题,以及开发人员的整个代码库,可以回答开发过程中遇到的问题或者根据先前的知识建议一些方法。 Cody的主要功能 Cody就像代码编辑器中的 ChatGPT,可以帮助你更好更快地编程。 1.人工智能生成代码。Cody 可以根据代码库的上下文和样式生成从样板代码到 AP!解析器的所有内容,还可以修复代码块的错误、可读性或未处理的边缘情况。 2.自动生成单元测试。Cody 可以编写单元测试,节省开发人员的时间以专注于构建软件。 3.解释代码信息。Cody 可以从高层次或细节上解释代码的作用,突出显示任何代码块或整个文件,以对话语言解释发生了什么。 4.编程语言翻译。开发人员可以将代码片段提供给 Cody,例如某个函数。Cody 可以翻译该代码,提供具有相同功能的另一种语言的代码片段。 如何使用Cody 使用Cody非常简单,目前Cody可以在Sourcegraph的网页和VS Code中使用。 1.安装 VS Code的Cody扩展 2.打开 Cody(从活动栏或者Alt +/或Opt +/)并登录 3.点击Chat或者Recipes(内置的一些命令)进行使用

DevChat

Devchat是一个开源的AI编程助手,可以帮助开发人员高效地利用A!进行代码生成和文档记录。其核心理念是让开发者以提示为中心进行软件开发,即通过编写提示而非直接编写代码来指导A!生成代码。相较于其他单一模型的AI编程工具,DevChat集成了主流的热门代码大模型,支持在多个大模型间切换。 DevChat的主要功能 1.代码生成与编程辅助:DevChat支持代码生成、代码补全以及测试用例的自动生成等,帮助开发者快速完成编程任务. 2.上下文精确控制:平台赋予开发者对上下文的精确控制权,同时简化了上下文构建的复杂过程,使得与A!的交互更加直观和高放. 3.易扩展的提示词库:DevChat允许开发者自定义提示词或创建适合个人或团队的预定义提示模板库,以适应不同的编程需求. 4.集成多种大模型并任意切换:包括OpenAl的GPT-4和GPT-3.5、文心、Claude 2、讯飞星火、ChatGLM、Code Llama等大模型. 5.支持多款主流IDE:提供Visual Studio code和JetBrains旗下的IDE(如Inteli IDEA、Webstorm、PyCharm、cLion等)插件和扩展. 如何使用DevChat 1.以Visual Studio Code为例,打开VS Code编辑器,单击左侧的扩展按钮 2.在应用商店中搜索Devchat扩展并安装 3.安装完成后,点击左侧的Devchat扩展图标 4.点击注册获取DevChat密钥或设置你自己的OpenAl密钥,便可以开始使用DevChat进行编程 DevChat的产品价格 免费版:用户可输入自己的OpenAl或其他大模型的密钥 付费版:购买DevChat提供的密钥,可使用GPT-3.5和GPT-4,15元约1067K个GPT-3.5 token或53K的GPT-4token;29元约2133K个GPT-3.5 token或107K个GPT-4 token;57元约4267K个GPT-3.5 token或213K个GPT-4 token;112元约8533K个GPT-3.5token或427K个GPT-4 token。

Tabby

Tabby是什么 Tabby是一个自托管的人工智能编程助手,为开发人员提供了一个开源和本地部署的替代方案,支持通过利用第三方开源代码大模型(如StarCoder、Codellama、DeepseekCoder)以实现类似于 GitHub Copilot 的功能。Tabby的设计目标是帮助开发者通过提供代码建议、自动完成和其他编程相关的辅助功能来提高编程效率和体验。 GitHub地址:https://github.com/TabbyML/tabbye Tabby的主要功能 1.代码自动补全:Tabby 能够根据上下文自动完成代码行,提供单行代码或整个函数的补全建议,从而减少打字量并加快编码速度。 2.代码建议: 在编写代码时,Tabby 可以提供相关的代码片段建议,帮助开发者快速实现特定的功能或结构。 3.多行代码生成:Tabby 不仅能补全单行代码,还能生成多行代码片段,包括循环、条件语句、函数定义等。 4.函数和类生成: Tabby 可以建议或自动生成整个函数或类的结构,包括参数、返回类型和方法实现。 5.错误检测和修正: Tabby 可以识别代码中的潜在错误,并提供修正建议,帮助开发者维护代码质量。 6.代码优化: Tabby 能够根据最佳实践提供代码优化建议,帮助开发者编写更高效、更优雅的代码。 7.语言和框架支持: Tabby 支持多种编程语言(如Python、JavaScript)和框架,使其能够适应不同开发者的需求。 8.兼容IDE插件: Tabby 提供了与流行 IDE 兼容的插件,如 Visual studio Code 和 Inteli,允许开发者在他们熟悉的开发环境中直接使用 Tabby 的功能。 9.自托管和自定义: 由于 Tabby 是自托管的,用户可以根据自己的需求和安全标准来配置和运行 Tabby 服务器。 10.OpenAPI接口: Tabby 提供了 OpenAP| 接口,使得其他应用程序和服务可以轻松地与 Tabby 集成,扩展其功能。 Tabby支持的大模型 。代码补全模型: StarCoder-1B、Starcoder-3B、starcoder-78、Codellama-7B、Codellama-13B、Deepseekcoder-1.3BDeepseekCoder-6.7B 。对话模型:WizardCoder-3B、Mistral-7B

Devin

Devin是什么 Devin是由人工智能初创公司Cognition推出的全球首个全自主的A!软件工程师智能体,具备强大的编程和软件开发能力,能够在多个方面协助或完全独立地完成软件开发任务。在SWE-bench基准测试中,Devin解决实际问题的表现远超如GPT-4和Claude 2等A1模型, Devin的开发公司Cognition正式成立虽然仅两个月,但团队成员拥有丰富的A!前沿工作经验,并且拥有多枚国际信息学奥林匹克竞赛(I0I)金牌,已获彼得·蒂尔的Founders Fund基金领投的2100万美元A轮融资。 Devin的主要功能 1.自主学习新技术:Devin能够通过阅读文档和代码来学习它不熟悉的技术,从而扩展其技能集。 2.端到端构建和部署程序:Devin 能够理解整个软件开发流程,从前端设计到后端部署,甚至包括将应用程序发布上线。这意味着它可以从零开始构建网站、游戏或其他软件项目,并处理相关的工作流程。 3.自主查找并修复Bug:Devin 具有出色的调试能力,能够发现并修复代码中的错误,即使开发者自己都没有注意到的问题也能被它找到并解决。 4.训练和微调A!模型:Devin 不仅能够处理常规的编程任务,还能帮助训练和微调其他A!模型,显示出在人工智能领域的深度应用能力。 5.修复开源库:对于开源社区中的问题,Devin 能够理解和解决,例如修复已知的bug或实现新的特性请求。 6.对成熟生产库做贡献:Devin 能够对已经成熟的生产库做出贡献,例如修复已知的错误或添加新功能。 Devin的性能对比 在SWE-bench基准测试中(要求智能体解决在 Diango 和 scikit-learn 等开源项目中发现的实际 GitHub 问题),Devin能够正确处理13.86%的问题。这一成绩显著高于之前技术水平的1.96%,显示出Devin在理解和解决实际编程问题方面的巨大优势。 对比其他A!模型:Devin的表现远远超过了其他知名的A!模型,如GPT-4和Claude 2,这些模型在同样的测试中的正确率通常较低. 如何使用Devin 目前Devin还在内测中,请访问Coginition的官网g 查看更多信息,想要抢先体验的用户可填写Devin的内测申请表?

Plandex

Plandex是什么 Plandex是一个基于终端的开源 A 编程引擎,可帮助程序员完成复杂的软件编程开发任务、解决不良输出并最大限度地提高生产力。该AI编程助手通过使用长期运行的智能体来完成跨越多个文件并需要多个步骤的任务,将大型任务分解为较小的子任务,然后逐一实现它们,直到完成整个软件开发工作。Plandex旨在提高开发效率,帮助用户处理积压工作,掌握不熟悉的技术,并减少在重复性工作上的时间投入。 Plandex的主要功能 1.任务分解与执行:Plandex能够将复杂的开发任务项目分解成更小的子任务(如任务规划、代码补全、代码编写、代码审查等),并逐一完成它们,直至整个任务顺利结束。 2.沙盒保护与版本控制:Plandex在一个受保护的沙盒环境中累积更改,允许用户在将更改应用到项目文件之前进行审查。同时内置的版本控制功能使得用户可以轻松地回退并尝试不同的解决方案。 3.上下文管理:Plandex允许用户在终端中高效地管理上下文,可以轻松添加文件或整个目录,并自动保持更新,确保模型始终拥有项目的最新状态。 4.多平台支持:Plandex支持多种操作系统,包括Nac、Linux、FreeBSD和Windows,并且可以从单一的二进制文件运行,无需依赖其他软件。 5.依赖OpenAI APl:Plandex依赖于OpenAI APl来丸行任务,并需要设置环境变量OPENAIAPIKEY来使用。后续计划支持开源模型、Google Gemini和Anthropic Claude. 6.分支功能:用户可以利用分支功能尝试多种方法并比较结果,这有助于在开发过程中探索不同的解决方案 Plandex的产品定价 用户可以选择自托管Plandex,在自己的服务器上部署和运行,对数据隐私和安全有特殊要求的用户来说是一个不错的选择. Plandex还提供了基千云的服务,称为Plandex Coud,使得用户可以轻松开始使用Plandex,在创建第一个项目时,用户会被提示开始一个匿名试用,这个试用不需要提供电子邮件地址。试用账户有一定的限制,例如每个计划限制了10个任务和10次A!模型的回复, 目前Plandex Cloud账户是免费的,未来可能会引入收费。预计的费用范围在每月10到20美元之间,具体的价格会根据服务的发展和市场情况进行调整。

Fitten Code

Fitten Code是一个由非十科技自研代码大模型驱动的A!代码助手,支持包括 Python、JavaScript、TypeScript、Java、C、C++ 等在内的80多种编程语言。该A编程助手可以自动进行代码补全,并可以生成代码、生成注释、编辑代码、解释代码、生成测试、查找Bug等,减轻了开发者的工作负担,还提升了代码的质量和开发效率。 Fitten code目前针对个人用户是完全免费使用的,无黑付费,支持通过Visual studio Code编辑器和JetBrains系列IDE使用。 Fitten Code的主要功能 1.代码自动补全:智能预测并补全代码,提高编程效率。 2.注释到代码生成:根据开发者的注释说明,自动生成代码片段或完整的代码结构。 3.当理解和维护代码。自动添加注释:自动为代码添加注释,帮助开发 4.代码编辑:提供代码重构和优化建议,提升代码质量, 5.代码解释:对复杂的代码段进行解释,帮助开发者理解其工作原理。 6.代码测试生成:自动生成测试用例,确保代码的建壮性和正确性。 7.Bug查找:智能识别代码中可能存在的缺陷,帮功开发者提前发现并修复问题。 如何使用Fitten code 1.以VSCode版为例,打开Visual studio Code编辑器,点击左侧扩展按钮 2.在搜索框中输入Fitten Code进行搜索,然后点击安装 3.安装完成后进行注册登录 4.随意打开一个代码文件,输入代码段后即可自动补全代码 5.你也可以添加注释,将注释生成代码

Solo

Solo(Solo Al Website composer)是火狐浏览器的母公司Mozila最新推出的一个创新项目--面向个人企业家、自由职业者的一个人工智能网站创建工具。借助A!的能力,用户无需具有编程经验和代码知识,输入文本提示、可视化添加内容块、图像、布局、主题即可创建精美视觉效果的网页和网站。 Solo的主要功能 1.无代码创建网站: 只需通过一些简单的输入即可快速生成网页 2.搜索引擎优化: 智能建议网站SEO Meta关键字、描述等 3.响应式设计: 自动进行桌面端和移动端响应式网页设计 4.评论导入: 从社交媒体中获取帖子文本和评论并展示最佳内容 5.公司名称生成器: 接描述公司的主营业务即可生成企业名称 6.创业想法生成器: 随机为你生成不同行业的创业想法,激发灵感 如何使用Solo创建网站 1.访问Solo的官网(soloist.ai),点击Build Your Website开始创建网站 2.填写初步信息,如业务介绍、企业名称、经营地点等 3.进入下一步选择网站字体样式-->选择网站颜色主题 4.选择要添加的网站内容版块,如头部、服务介绍、Banner、)联系框、底部等 5.然后点击Compose your site,等待Mozila自动生成网页,稍等片刻即可生成完毕 6.生成后的网站可以自由修改,也可以点击右上角的Publish进行发布 AI工具集使用该工具实测了一下,生成的网页还算是简洁大气,若需要快速上线一个网站着陆页,是个还不错的选择。不过,相比于之前介绍的Framer Al建站工具,效果略逊一筹。

Comate

Comate是百度推出的A编程工具,基于文心大模型,结合百度积累多年的编程现场大数据和外部优秀开源数据,为开发人员生成更符合实际研发场景的优质代码,现已向企业开放试用申请。 Comate的产品功能 一,AI自动生成代码: 1.代码解释:可给出整个方法、函数的功能和完整逻辑说明,也支持选中任意代码给出解释 2.技术问答:在对话框中输入研发中遇到的问题,第一时间获得AI助手解答 3.实时续写:通过分析上下文逻辑关系,智能生成方法、函数、判断、循环体等完整的代码块 4.注释生成代码:直接在注释中用自然语言描述所需功能,自动生成完整函数 5.生成函数注释与行间注释:分析一个方法、函数、类,生成符合规范的文档注释,同时也可以识别函数中复杂逻辑逐行增加注释 6.生成单元测试:支持对任意方法、函数一键生成单元测试,也支持对多文件进行批量生成 二、AI进行代码优化和修复: 1.代码优化:支持对长函数等坏味道代码进行优化 2.代码修复:识别代码中的潜在错误,并自动进行修复 三、支持多门语言和多个IDE: 1.支持30多种主流语言,包括C/C++、Java、Python、Go、JavaScript、TypeScript等语言 2.支持常用 IDE,VS Code、 lntelli IDEA、 GoLand、Pycharm、 Webstorm、Clion、Phpstorm、Android studio、Xcode、icoding等!DE插件,一键安装,即装即用

CodeArts Snap

CodeArts Snap是华为云推出的AI编程助手,可以帮助开发者将自然语言转化为规范可阅读、无开源漏洞的安全编程语言,提升开发者编程效率,助力企业快速响应市场需求。其核心技术基于华为云PaaS技术创新Lab与华为诺亚方舟实验室联合打造的PanGu-Code代码大模型,支持Python和Java语言,支持PyCharm、Intelli和VSCode等代码编辑器。 CodeArts Snap的主要功能 1.函数级代码自动生成。可以通过自然语言识别做到函数级的多行代码生成,开发者仅需在定义好的函数签名未尾处敲下“回车键”,CodeArts Snap将生成符合业务逻辑的完整函数码。 2.行级代码生成。CodeArts Snap在已有函数上文的场景下,还可以通过理解上文的语义和逻辑,自动进行行级代码生成。 3.光标处代码生成推荐。在编程过程中,开发者难免会遇到卡壳、停下来思考。此时CodeArtsSnap在光标处会进行行中代码生成推荐,为开发者提供编程灵感。 4.提供多个生成结果方案,每次触发代码生成,codeAts snap会提供多个生成结果方案,开发者可以通过快捷键快速翻阅,也可以调取侧边栏对比查看所有候选代码生成推荐结果,并对结果进行选择。 CodeArts Snap的产品价格 目前CodeArts snap处于免费测试中,用户可以通过VS Code和JetBrains插件市场免费下载,并通过下方链接申请注册使用 https://devcloud.cn-north-4.huaweicloud.com/codeartssnap/applyc

Quest AI

Quest AI可以将 Figma 设计稿或者手稿转换为 Reacts 前端代码,帮助设计人员或开发人员比以往更快地构建全栈网站应用程序。Quest 支持构建任何 Reacts 组件,可以构建单个组件并将其添加到现有的 React 应用程序中,也可以使用 Quest 构建整个应用程序。 Quest Al的主要功能 1.导出Figma设计,提供Figma插件将设计稿导出到Quest 2.同步代码到GitHub,将生成的代码推送到 GitHub 存储库,可以推送单个组件或整个应用程序 3.实时预览编好的组件,预览模式进行测试并查看代码的工作情况 4.响应式前端代码,按照需要放大或缩小组件,或者根据屏幕尺寸更改布局,无需编写任何代码 5.支持Nexts,开箱即用的 Nexts 支持,并且可以选择 JS 或 TS 导出代码 6.支持输入文本描述提示,AI自动生成对应的功能代码 如何使用Quest Al 1.访问Quest的官网,并登录/注册账号 2.登录成功后会进入到Quest的工作台,点击左上角的加十按钮 3.选择Figma、上传手稿截图、或者提供的模板 4.点击对应的元素或组件进行修改,并且可以在左下角输入描述,AI自动生成功能性代码 5.右上角可以点击Git的图标同步代码到GitHub,或者点击下载图标导出代码 Quest Al的产品价格 Quest A!提供不同的定价计划以满足不同的项目需求,初创企业和教育邮箱可获得80%折扣 1.Free免费版,适用于个人项目,支持20个组件、1个工作空间、1个App、3个团队成员 2.Pro付费版,月付版每人每月58美元(年付版49美元/月),支持无限个组件、1个工作空间、2个App每工作空间、无限团队成员 3.Business商业版,月付版每人每月93美元(年付版79美元/月),支持无限个组件、无限个工作空间、5个App每工作空间、无限团队成员

Imgcook

[mgcook(图像大厨)是由阿里巴巴-大淘宝技术-导购和营销产品团队推出的设计稿智能生成前端代码(D2c,Design to Code)的平台,专注以 sketch、PsD、静态图片等形式的视觉稿作为输入,通过智能化技术一键生成可维护的前端代码,包含视图代码、数据字段绑定、组件代码、部分业务逻辑代码等。 lmgcook的主要功能 一键还原视觉稿 从视觉稿中还原生成代码需要将视觉稿中的数据导出到 imgcook 可视化编辑器中还原生成代码,支持两种方式. 第1种:打开 Sketch/PSD 文件,通过安装好的 imgcook 插件将设计稿中的图层信息导出,粘贴到可视化编辑器中。 第2种:在可视化编辑器中直接上传“导入" Sketch/PSD/图片文件,imgcook 会解析图层信息直接还原到编辑器中。 可视化编辑 在 imgcook可视化编辑器中,用户可以对视图编辑,比如支持动态表达式样式、设置循环、修改布局。还可以编写逻辑代码、绑定字段等。 生成代码 官方有提供常用的 DSL(React/ue/小程序 DSL等),点击下拉列表可切换使用其他 DSL。如果有特殊诉求,你也可以自定义 DSL. 代码确定后,可点击「导出」,你也可以使用 VS code imgcook 插件链路[号出」,此方式可以将整个模块代码文件生成到相应目录,直接继续使用 VS code 开发整个项目即可。导出后的代码到本地文件中,图片以相对路径的形式存放在 images 文件夹下。 lmgcook的应用场景 imgcook 目前支持各种场景的页面或模块的高度还原,您可以根据以下场景分类选择是否使用 imgcook。 1.移动端细粒度模块开发场景-特别推荐 2.移动端活动页-特别推荐 3.移动端全页面开发-推荐 4.PC端 toC应用-推荐 5.PC端 toB 应用 6.PC端富交互应用-不推荐 7.游戏场景-不推荐 如何使用imgcook插件? 1.确保你已登录到 imgcook 帐户。 2.在 Figma 中,转到 Plugins 并选择 imgcook,你应该看到一个新的导出窗口。 3.选择任意文件图层组,然后点击“导出”。imgcool将弹出“导出成功,已复制到剪贴板!"提示弹出层,然后单击“转到粘贴”进行还原。 4.imgcook将在新的浏览器选项卡中打开编辑器。将其粘贴并恢复到“ ctr +v“编辑器中,然后另存为模块即可 lmgcook是免费的吗? lmgcook是完全免费的,用户可以使用其提供的Figma、Sketch、Vscode等插件来进行将设计稿免费转化为代码.。

Fronty

Fronty是世界上第一个由 A1驱动的网页设计到源代码转换服务,智能将你的网页原型设计稿转换为HTML和CSS代码。该公司的愿望是创建一系列提供干净和可访问的代码、速度优化、W3C有效、可访问、SEO 友好、移动友好的网页设计工具。 Fronty基于人工智能技术,可以从图像、屏幕截图、设计或模型中生成干净的 HTML/CSS 代码。该A!图像到代码转换器具有以下优点: 1.干净的代码。无需手动编码,所有代码基于业界知名的前端框架,经过适当定制。 2.页面速度优化。所有最终代码都被缩小,图像已优化、呈现关键CSS 和 CRP。 3.SEO友好。搜索引擎优化最佳实践遵循前谷歌搜索引擎优化专家的指导。 4.注释良好的代码。在不清楚的情况下维护别人的代码总是很糟糕的体验。Fronty生成的代码易于维护,有着良好的注释和说明。 5.语义化HTML。提供的代码遵循编写语义标记的最佳实践,还有自动生成的结构化数据支持。 6.可访问。ARIA标识的使用另该工具生成的网站易于访问。 7.SCSS 而不是 CSS。源代码基于强大的 SCSS,你可以使用变量、嵌套和许多其他 CSS 缺少的强大功能。 8.自定义 Bootstrap 主题。提供的代码基于世界上最流行的 U! 框架 Bootstrap。此外,fronty还提供了一个强大的库。 9.移动平板电脑友好。Fronty生成的代码保证移动优先。 除此之外,Fronty还可以重做现有网站的前端并提供新的/更好的代码,并准确分析清理了多少代码以及优化了多少页面加载速度,用户还可以直接在 Fronty.com 上托管网站,这意味着用户只需要网站的设计,解析好域名后便可以直接使用 Fronty 创建和托管网站。

Gemma

Gemma是什么 Gemma是由谷歌DeepMind和谷歌的其他团队开发的一系列轻量级、先进的开放A!模型,基于与Gemin;模型相同的技术,旨在帮助开发者和研究人员构建负责任的AI应用。Gemma模型系列包括两种权重规模的模型:Gemma28 和 Gemma 7B,提供预训练和指令微调版本,支持多种框架,如JAX、PyTorch和TensorFlow,以在不同设备上高效运行。 Gemma的官方入口 Gemma的官网主页:https://ai.google.dev/gemma?hl=zh-cnc Gemma的Hugging Face模型:https://huggingface.co/models?search=google/gemmaz Gemma的Kaggle模型地址:https://www.kaggle.com/models/google/gemma/code/c Gemma的技术报告:https://storage.googleapis.com/deepmind-media/gemma/gemma-report.pdfz 官方PyTorch实现GitHub代码库:https://github.com/google/gemma_pytorchc。 Gemma的Google Colab运行地址: https:/colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/lora_tuning.ipynbc Gemma的主要特性 1.轻量级架构:Gemma模型设计为轻量级,便于在多种计算环境中运行,包括个人电脑和工作站。 2.开放模型:Gemma模型的权重是开放的,允许用户在遵守许可协议的情况下进行商业使用和分发 3.预训练与指令微调:提供预训练模型和经过指令微调的版本,后者通过人类反馈强化学习(RLHF)来确保模型行为的负责任性。 4.多框架支持:Gemma支持JAX、PyTorch和TensorFlow等主要AI框架,通过Keras 3.0提供工具链,简化了推理和监督微调(SFT)过程。 5.安全性与可靠性:在设计时,Gemma遵循Google的AI原则,使用自动化技术过滤训练数据中的敏感信息,并进行了一系列安全评估,包括红队测试和对抗性测试。性能优化: 6.Gemma模型针对NVIDIA GPU和Google Cloud TPUs等硬件平台进行了优化,确保在不同设备上都能实现高性能. 7.社区支持:Google提供了Kaggle、Colab等平台的免费资源,以及Google Cloud的积分,鼓励开发者和研究人员利用Gemma进行创新和研究。 8.跨平台兼容性:Gemma模型可以在多种设备上运行,包括笔记本电脑、台式机、物联网设备和云端,支持广泛的A!功能. 9.负责任的AI工具包:Google还发布了Responsible Generative Al Toolkit,帮助开发者构建安全和负责任的AI应用,包括安全分类器、调试工具和应用指南。 Gemma的技术要点 1.模型架构:Gemma基于Transformer解码器构建,这是当前自然语言处理(NLP)领域最先进的模型架构之一。采用了多头注意力机制,允许模型在处理文本时同时关注多个部分。此外,Gemma还使用了旋转位置嵌入(ROPE)来代替绝对位置嵌入,以减少模型大小并提高效率。GeGLU激活函数取代了标准的ReLU非线性激活,以及在每个Transformer子层的输入和输出都进行了归一化处理。 2.训练基础设施:Gemma模型在Google的TPUv5e上进行训练,这是一种专为机器学习设计的高性能计算平台。通过在多个Pod(芯片集群)上进行模型分片和数据复制,Gemma能够高效地利用分布式计算资源。 3.预训练数据:Gemma模型在大量英语数据上进行预训练(2B模型大约2万亿个token的数据上预训练,而7B模型则基于6万亿个token),这些数据主要来自网络文档、数学和代码。预训练数据经过过滤,以减少不想要或不安全的内容,同时确保数据的多样性和质量。 4.微调策略:Gemma模型通过监督式微调(SFT)和基于人类反馈的强化学习(RLHF)进行微调。这包括使用合成的文本对和人类生成的提示响应对,以及基于人类偏好数据训练的奖励模型。 5.安全性和责任:Gemma在设计时考虑了模型的安全性和责任,包括在预训练阶段对数据进行过滤,以减少敏感信息和有害内容的风险。此外,Gemma还通过了一系列的安全性评估,包括自动化基准测试和人类评估,以确保模型在实际应用中的安全性。 6.性能评估:Gemma在多个领域进行了广泛的性能评估,包括问答、常识推理、数学和科学问题解答以及编码任务。Gemma模型与同样规模或更大规模的开放模型进行了性能对比,在MMLU、MBPP等18个基准测试中,有11个测试结果超越了Lama-13B或Mistral-7B等模型。 7.开放性和可访问性:Gemma模型以开源的形式发布,提供了预训练和微调后的检查点,以及推理和部署的开源代码库。这使得研究人员和开发者能够访问和利用这些先进的语言模型,推动AI领域的创新。

Jan

Jan (Jan.ai)是一个免费开源的本地运行大模型并进行A!聊天对话的工具,可帮助用户在本地电脑(Windows、Mac、linux)上安装、部署、运行并使用开源版本的ChatGPT替代大模型,如LLaMa、Mistral、Phi-2等20多个模型,也支持输入自己的OpenAI API Key以运行GPT。相较于A!工具集此前介绍的0llama,该工具提供了对话U!和API服务器,适合开发者、研究人员或A!爱好者本地体验开源的大模型。 Jan的主要功能 1.本地运行开源大模型:支持LlaMa、Mistral、phi-2、DeepSeek、Yi等20多个模型,可手动导入也可以在模型库下载模型 2.简洁好用的聊天界面:软件界面清爽简洁、直观易用,直接在本地与开源大模型快速进行对话聊天 3.支持多个平台:Jan支持在Windows、Mac(Inte1、M1/M2/M3)和Linux等操作系统运行,后续还将推出移动端APP. 4.内置API服务器:与OpenAIAPI兼容,可通过API获取模型信息、下载、启动、停止模型及聊天等 如何使用Jan 1.访问Jan的官网(jan.ai)选择对应的电脑操作系统版本,点击Download进行下载, 2.然后安装并打开软件,在软件界面的左下角点击Download your first model 3.进入模型库Hub界面,选择你感兴趣的模型进行下载,,下载完成后点击Use使用该模型 4.在对话界面输入你的描述即可与你选择的模型进行对话啦 Jan还在持续开发中,后续会支持移动端APP、创建AI助理、推理引擎、插件扩展等功能。

GPT-4

GPT-4介绍 GPT-4(Generative pre-trained Transformer)是 OpenA!开发的自然语言处理模型 GPT 家族中的第四个版本,该模型依靠强大的神经网络来理解和生成类似人类的语言。 GPT-4 通过使用被称为「转换器(Transformer)」的特殊架构来帮助软件理解单词的含义以及它们在句子中的组合方式。通俗来讲,Transformer帮助计算机找出如何将所有的词以正确的顺序放在一起,使之有意义。 之所以采用这样的方法,是因为该模型已经在一个巨大的数据集上进行了训练,其中包括来自不同来源的文本,如书籍、文章和网站。这种训练使 GPT-4 模型能够进行类似人类的对话,并产生看似有意义的回应。不过虽然 GPT-4 创造的文本和回应读起来像人但它远远不是有意识的智能,离通用人工智能还有距离。 GPT-4的工作原理 1.GPT-4通过与其前身(GPT-3.5)相同的基本流程工作,但规模更大,以下是其主要的工作原理: 2.Transformer架构: GPT-4是使用一种叫做[Transformer」的设计来构建的,这些转换器就像超级智能机器,能够理解一句话中哪些词是重要的以及它们之间的关系。 3.大规模的预训练: GPT-4从大量的文本中学习,如书籍、网站和文章,这样一来,它就能更好地理解语言模式、语法和事实。 4.微调(Fine-tuning)在从大量文本中学习后,GPT-4会在特定的任务中接受训练,如回答问题或理解文本中的情感,这有助于它在处理这些任务时变得更加出色。 5.分词(Tokenization): GPT-4将文本分解成更小的部分,称为[tokens」,这些token可以是单词或单词的一部分,这有助于它处理不同的语言并理解词语的含义。 6.上下文窗口 (Context window): GPT-4有一个限制,即它可以一次查看多少个token。这个限制有助于它理解语境和单词之间的关系,但这也意味着它不一定能理解很长的句子或段落。 7.概率分布和抽样: 当GPT-4生成文本时,它根据模型认为每个词的可能性的大小来猜测下一个词。然后,它从这些猜测中挑选出一个词,使其够创造出多样化和有趣的句子。 8.细粒度控制(Fine-grained control):GPT-4可以通过使用特殊提示或调整其设置等技巧,引导它给出特定类型的答案或文本,以帮助从该模型中获得我们想要的结果。 ChatGPT和GPT-4的区别 1.ChatGPT 是基于 GPT-3.5 和 GPT-4 模型的,专门为对话式人工智能应用而设计的,比如根据用ChatGPT 和 GPT-4 并不是同一回事,户输入生成类似人类的文本回复。 2.而GPT-4指的是GPT系列大语言模型的当前版本--驱动ChatGPT的引擎。 3.ChatGPT提供的输出读起来更自然,GPT-4更强大,在输入/输出方面可以处理更多文本。 GPT-4可以免费访问吗? 这个问题的答案:是也不是。 这些平台使用GPT-4来生成内容并与用户互动。然而,GPT-4只有在ChatGPT用户可以通过ChatGPT、New Bing等软件访问GPT-4呈序和服务的API。New Bing(新必应)可以每天免费有限次数使用GPT-4驱动Plus付费计划下才能使用,或者作为开发者建立应用的AI聊天,而独立用户在这些人工智能聊天机器人平台之外没有机会使用GPT-4。

Coze

Coze是由字节跳动推出的一个A!聊天机器人和应用程序编辑开发平台,可以理解为字节跳动版的GPTS。无论用户是否有编程经验都可以通过该平台快速创建各种类型的聊天机器人、智能体、AI应用和插件,并将其部署在社交平台和即时聊天应用程序中,如Discord、WhatsApp、Twitter、飞书、微信公众号、豆包等。 Coze国际版(coze.com)提供的是基于OpenAI GPT-4和GPT-3.5的AP|来创建和使用A!聊天机器人,并未使用自研的云雀大模型。如同此前推出的聊天机器人豆包国际版为Cici,字节也推出了一个国内版本的Coze扣子(coze.cn),采用了云雀大模型,允许用户自主创建自定义聊天机器人。 Coze的主要功能 1.1丰富的插件工具:该平台目前包含 60 多个不同的插件,包括新闻阅读、旅行计划、生产力工具、图像理解 AP 和多模态模型 2.知识库调取和管理:Coze提供易于使用的知识库功能,使 A 能够与用户自己的数据(如PDF、网页文本)进行交豆。可以存储和管理知识中的数据 3.长期记忆能力:提供便捷的数据库存储能力,可以让 A1机器人持久记住对话中的关键参数或内容 4.定时计划任务:通过计划任务功能,用户可以使用自然语言轻松创建复杂的任务,创建好的机器人会准时发送相应的消息内容。 5.工作流程自动化:轻松创建一个工作流程将创意想法转换为机器人技能,如收集电影评论、起草行业研究报告等 6.预览和调试:机器人开发完成后,可以发送消息来查看机器人的响应,并根据知识搜索结果和工具响应来排查问题 如何使用Coze创建机器人 1.访问Coze的官网(coze.com),点击Get started登录/注册账号 2.选择侧边栏的Bots菜单,点击Create bot,然后添加机器人Logo、名称、描述信息 3.然后在Persona & Prompt输入框中输入机器人角色和提示词,右侧可预览和调试输出信息 4.测试无误后可点击右上角的Publish发布创建好的机器人 coze的适用人群 1.开发人员:专注于为特定任务调整AI模型和提示词,而不是花费大量时间进行初始开发 2.企业公司:通过将AI机器人集成到内部程序如客户支持系统、内容创作工具和推荐引擎中, 3.开发创新的应用和服务研究人员:利用该平台作为实验工具进行各种研究任务,探索自然语言生成和理解 4.AI爱好者:免费的GPTAPI,创建自定义机器人用于日常生活、学习和工作中

MiracleVision奇想智能

MiracleVision奇想智能是什么 MiracleVision奇想智能是由美图秀秀公司推出的自研A!视觉大模型,不仅具备高度的美学导向和图像处理能力,还能够广泛地应用于多个行业,提高工作流效率。同时,它还提供了简单易用的A!视觉创作工具,使用户能够快速进行图像的创作和编辑。最新的MiracleVision 4.0支持AI图片生成、AI设计排版和AI视频生成等能力。 MiracleVision奇想智能的主要能力 1.AI图片生成,支持文生图和图生图,输入文字或上传图像即可创作图片,提供多种风格、参数调整、图片尺寸、精准画面控制等 2.AI智能设计,包括矢量图形、文字特效、智能分层和智能排版,可以满足AI设计的基础需求 3.AI视频生成,提供文生视频、图生视频、视频运镜、视频生视频四大功能,让奇思妙想动起来 4.视觉模型商店,平台提供丰富的视觉模型,从经典复古到现代潮流、从超现实幻想到极简抽象,用户可以任意选择创造惊艳的视觉效果 MiracleVision奇想智能的适用行业 1.电商行业:从涂鸦生成线稿、线稿上色、商品图、模特试穿图,再到电商物料输出,全程可通过MiracleVision实现。 2.游戏制作:包揽场景设计、角色设计、道具设计、U图标、宣发物料等流程,拓宽设计师想象空间的同时助力游戏行业降本。 3.影视行业:充分满足概念场景设计、分镜设计、人物造型、道具设计、宣发物料的效果要求,极大提升影视行业设计环节的效率。 4.广告设计:覆盖创意脑暴、创意深化、平面排版、多尺寸延展、线下投放预览的全工作流,助力客户在广告物料制作环节提效。 5.动漫卡通:打通了概念设计、故事板生成、线稿上色、动漫补帧、视频转动漫等流程,支持创意到物料成品的快速落地。

天壤小白

天壤小白是什么? 天壤小白是天壤公司开发的一个通用大语言模型,它是一个基于互联网公开数据训练而成的人工智能模型,拥有高达1860亿个参数。这个模型采用了生成式架构,具备强大的语义理解和上下文感知能力,能够精准捕捉文本中的语义关联,并理解用户的指令和意图。 天壤小白应用开发平台是一个专为开发者设计的平台,旨在帮助用户轻松构建、管理和运营基于天壤小白大语言模型的AI应用。该平台利用天壤小白大模型,结合Embedding模型,允许用户通过编写自然语言的方式创建可信赖的商业级AI应用。平台提供了多种应用类型和使用方式,以适应不同的业务场景。 天壤小白应用开发平台的主要功能 1.应用创建与管理:用户可以创建不同类型的AI应用,包括文本生成型、对话型、搜索型和工作流应用。平台提供了一个直观的界面,让用户能够轻松设置应用的图标、名称和类型, 2.灵活的模型配置:平台提供了多种版本的天壤小白大语言模型,用户可以根据应用需求选择合适的模型。同时,用户还可以配置模型参数,如模型版本、输入输出长度限制等。 3.提示词与上下文管理:用户可以设计提示词来指导A1模型生成特定的输出,同时管理上下文信息,确保AI应用在对话中保持连贯性。 4.敏感词检测:为了确保内容的安全性,平台支持敏感词检测功能,用户可以设置敏感词列表,A在生成内容时会自动过滤这些词汇 5.API调用:平台提供了友好的API接口,开发者可以通过API将A!能力集成到自己的应用中,实现后端或前端的直接调用。 6.Web App在线访问:用户可以创建Web App,通过链接直接访问AI应用,无需复杂的部署过程。 7.数据分析:平台提供了应用的数据分析功能,包括用量统计、活跃用户数、用户满意度等,帮助开发者了解应用的表现并进行优化。 8.文档集功能:支持上传和解析多种格式的文档,如Excel、CSV、JSON等,以及图片和PDF文件,通过OCR技术提取文字。这些文档可以作为AI应用的知识库,提高回答的准确性和相关性。 9.结构化文档支持:用户可以上传结构化文档,并设置召回字段,使得A应用能够更准确地理解和回应基于特定字段的查询

Label Studio

Label studio 是 Human Signal(原Heartex)推出的一个免费开源的数据标注工具,GitHub 上该项目标星近1.4万,可帮助开发人员微调大语言模型、准备训练数据或验证 AI 模型。 Label Studio的功能特色 1.支持标记各种类型的数据,包括图片、声音、文本、时间序列、多域、视频等 2.灵活且可配置,可配置的布局和模板以结合自己的数据集和工作流 3.机器学习辅助标记,通过 ML后端集成使用预测来协助标记流程,从而节省时间 4.多个项目和用户,在一个平台上支持多个项目、用例和数据类型 5.与您的 ML/Al pipeline 集成,可使用 Webhooks、Python SDK和 API进行身份验证、创建项目、导入任务、管理模型预测等, 如何开始使用 Label studio 1.首先确认在电脑上巳安装好 1ibg-dev 和 python3-de依赖项 2.然后使用 pip insta1l 1abel-studio 命令安装 LabeStudio 3.在终端/命令行使用 1abel-studio start 启动 Label!tudio 4. 通过 http://localhost:8080 打开 Label Studio Ul 5.使用自己创建的电子邮件地址和密码进行注册 6. 单击 Create 创建项目并开始标记数据 7.为项目命名,可输入项目描述并选择颜色 8.单击 Data lmport 并上传你要使用的数据文件。如果你想使用本地目录、云存储或数据库中的数据,可暂时跳过此步骤 9.单击 Labeling Setup 设置并选择一个模板并根据你的用例自定义标注名称 10.单击 Save 以保存您的项目 更多的设置和相关操作,请査看官方的文档https://labelstud.io/guide/get_started.htmlz

LangChain

大语言模型(LLM)正在成为一种变革性技术,使开发人员能够构建以前无法构建的应用程序。但是,单独使用这些LLM通常不足以创建一个真正强大的应用程序--当你可以将它们与其他计算或知识来源相结合时,便可能实现其真正的能力。 LangChain是一个用于开发由语言模型驱动的应用程序的框架,允许开发人员将语言模型连接到其他数据源并与其环境相交互。LangChain旨在帮助开发者在以下六个主要领域,按照复杂性递增的顺序: 1.LLMs and Prompts:这包括提示管理、提示优化、适用于所有 LLM 的通用界面以及用于处理 LLM 的通用实用程序。 2.Chains: 链不仅仅是单个 LM 调用,而是调用序列(无论是对 LM 还是对不同的实用程序)。LangChain 为链提供标准接口、与其他工具的大量集成以及用于常见应用程序的端到端链。 3.Data Augmented Generation: 数据增强生成涉及特定类型的链,这些链首先与外部数据源交互以获取数据以用于生成步骤。 这方面的例子包括对长文本的总结和对特定数据源的问答。 4.Agents: 代理涉及 LLM 做出关于采取哪些行动的决定,采取该行动,看到一个观察,并重复直到完成。Langchain 为代理提供了一个标准接口,可供选择的代理选择,以及端到端代理的示例。 5.Memor:内存是链/代理调用之间持久状态的概念。 Langchain 提供了内存的标准接口、内存实现的集合以及使用内存的链/代理的示例。 6.Evaluation: [BETA]众所周知,生成模型很难用传统指标进行评估。 评估它们的一种新方法是使用语言模型本身进行评估,Langchain 提供了些提示/链来协助这一点。