今天在Producthunt发现一个AI模型Kombai可以理解Figma的界面设计并生成对应的前端代码,下面是他们官网的演示视

今天在Producthunt发现一个AI模型Kombai可以理解Figma的界面设计并生成对应的前端代码,下面是他们官网的演示视频。 从演示来看生成的代码还是不错的,它的优势在于他不要求设计稿的格式、层级和是否使用组件,无论你怎么嵌套和画出的界面它都能理解。 这比之前通过传统工程化思路从设计稿生成代码要强多了。之前的一些工具要不是处理不了复杂样式,要不就是对设计师的设计稿格式有非常严格的要求。 同时这个模型也支持通过自然语言生成前端界面的代码。 官网链接:

相关推荐

封面图片

推主演示了用 ChatGPT Vision 可以从 Figma 截图并生成前端代码,他指定了使用一个流行的前端库通过提供给Cha

推主演示了用 ChatGPT Vision 可以从 Figma 截图并生成前端代码,他指定了使用一个流行的前端库通过提供给ChatGPT shadcn上的代码示例,ChatGPT就能基于代码示例和UI截图,生成代码,运行效果和截图基本一致。

封面图片

Hugging Face 和 ServiceNow 发布免费代码生成模型 StarCoder

Hugging Face 和 ServiceNow 发布免费代码生成模型 StarCoder AI 创业公司 Hugging Face 和 ServiceNow 发布了免费的代码生成模型 。类似 DeepMind 的AlphaCode、亚马逊的 CodeWhisperer 和 GitHub 的 Copilot(基于 OpenAI 的 Codex),StarCoder 使用 Apache License 2.0 许可证,允许任何人免费使用,但严格意义上不是开源模型,它禁止用户使用该模型生成或传播恶意代码。StarCoder 使用了开源代码数据集 The Stack 训练,有 150 亿参数。其数据集包括了逾 80 种不同编程语言和来自 github issues 和 commits 的文本。#AI 来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

OpenAI 用新模型 CriticGPT 识别 GPT-4 的代码错误

OpenAI 用新模型 CriticGPT 识别 GPT-4 的代码错误 OpenAI 研究人员透露了一种新模型 CriticGPT,设计识别 GPT-4 所生成的代码中的错误。CriticGPT 使用了人类反馈中强化学习(Reinforcement Learning from Human Feedback 或 RLHF) 去增强 AI 系统,它作为 AI 助手帮助人类审查 ChatGPT 生成的代码。它分析 AI 生成的代码然后指出可能的错误,帮助人类更容易识别可能会忽视的 bug。研究人员通过故意在代码中加入 bug 去训练 CriticGPT 识别和标记代码中的各种 bug。 via Solidot

封面图片

马斯克 xAI 展示首个多模态模型 Grok-1.5V:可将流程图转成 Python 代码

马斯克 xAI 展示首个多模态模型 Grok-1.5V:可将流程图转成 Python 代码 马斯克旗下人工智能公司 xAI 于 3 月下旬推出 Grok-1.5 大语言模型之后,近日再次推出首个多模态模型 。 xAI 表示将于近期邀请早期测试者和现有的 Grok 用户测试 Grok-1.5 Vision(Grok-1.5V),不仅能理解文本,还能处理文档、图表、截图和照片中的内容。Grok-1.5V 在多学科推理、文档理解、科学图表、表格处理、屏幕截图和照片等多个领域都能媲美现有的前沿多模态模型。 xAI 在官方新闻稿中演示了 7 个 Grok-1.5V 案例,,包括将白板上的流程图草图转化为 Python 代码、根据孩子的绘画生成睡前故事、解释流行语、将表格转化为 CSV 文件格式等等。来源 , 频道:@kejiqu 群组:@kejiquchat

封面图片

发布会演示造假?升腾社区回应:展示的均为真实代码 也将在升腾社区上开放

发布会演示造假?升腾社区回应:展示的均为真实代码 也将在升腾社区上开放 现场图片为实时生成,调用的是开源大模型。代码中有time.sleep(6)等表述,是命令等待读取外部开源大模型实时生成的图片,并非调取预置图片。本次展示的均为真实代码,也将在升腾社区上开放,欢迎开发者使用并提出宝贵建议。... PC版: 手机版:

封面图片

: 提高编程能力的关键在于数据。CodeGPT是通过GPT生成的用于GPT的代码对话数据集。现在公开了32K条中文数据,让模型更

: 提高编程能力的关键在于数据。CodeGPT是通过GPT生成的用于GPT的代码对话数据集。现在公开了32K条中文数据,让模型更擅长编程。 考虑到代码难度对模型训练效果的影响,此处共收集了四种不同类型、不同难度的代码相关对话数据,收集方法如下: Code-Basic:利用已有的LLM(例如付费API)生成各种编程语言的基础库函数相关的代码对话数据。Prompt类似“请为C语言中的XX函数生成一道非常简单的编程问题及对应的代码答案”,API会输出该基础库函数相关的问题-答案对,将问题作为用户输入,答案作为模型输出(Markdown格式),可得到一条对话数据。 Code-Medium:利用已有的LLM(例如付费API)生成中等难度的编程问题及答案,例如写入内容到文件、查找字符串子串、实现链表等,API同样会输出问题-答案对,将问题作为用户输入,答案作为模型输出(Markdown格式),可得到一条对话数据。 Code-LeetCode:从LeetCode上收集到的问题-答案对,此类问题通常难度较高。将问题作为用户输入,答案作为模型输出(Markdown格式),可得到一条对话数据。 Code-Text:从互联网上收集到的常见面试题及答案,此类问题并不涉及编程,而是侧重于对各种概念的理解。将问题作为用户输入,答案作为模型输出(文本形式),可得到一条对话数据。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人