Logo

Static Badge

## **WebRenderBench: Enhancing Web Interface Generation through Layout-Style Consistency and Reinforcement Learning** [Paper](https://arxiv.org/pdf/2510.04097) ## **🔍 概述 (Overview)** WebRenderBench 是一个全新的大规模基准测试,旨在通过对真实世界网页的评估,推动多模态大语言模型(MLLMs)在 WebUI-to-Code 任务上的发展。我们的基准测试提供: * **45,100个** 从真实门户网站收集的网页样本 * **高多样性和复杂性**,涵盖广泛的行业和设计风格 * **全新的评估指标**,基于渲染后页面的**布局与样式一致性** * **ALISA 强化学习框架**,利用新指标作为奖励信号,优化模型生成质量 ## **🚀 主要特性 (Key Features)** ### **超越传统基准的局限性** WebRenderBench 旨在解决现有 WebUI-to-Code 基准测试在数据质量和评估方法上的核心痛点: | 方面 (Aspect) | 传统基准 (Traditional Benchmarks) | WebRenderBench 优势 (Advantage) | | :---- | :---- | :---- | | **数据质量 (Data Quality)** | 规模较小,结构简单,或由LLM合成,多样性有限 | 源自真实世界的大规模复杂网页,更具挑战性 | | **评估可靠性 (Evaluation Reliability)** | 依赖视觉API(成本高)或代码结构对比(无法处理代码不对称问题) | 基于最终渲染结果进行客观、高效的布局与样式量化评估 | | **训练有效性 (Training Effectiveness)** | 难以在代码不对称的爬取数据上进行有效优化 | 提出的评估指标可直接用作强化学习奖励,提升模型性能 | ### **数据集特征 (Dataset Characteristics)**

WebRenderBench an ALISA Framework

图1: 数据集构建流程与 ALISA 框架

我们的数据集通过一个系统化的流程构建,确保其高质量和多样性: 1. **数据收集**: 从公开的企业门户网站数据集中获取URL,并使用高并发爬虫抓取了21万个网页及其静态资源。 2. **数据处理**: 将 MHTML 页面转换为 HTML 文件,并处理跨域资源,确保页面可本地渲染并进行全页面截图。 3. **数据清洗**: 过滤掉尺寸异常、渲染异常或样式缺失的页面。利用多模态模型进行QA,去除存在大面积空白或元素重叠的低质量样本,最终筛选出11万个页面。 4. **数据分类**: 根据行业和元素复杂度(通过 Group Count 衡量)进行分类,确保数据集在复杂度和领域上分布均衡。 最终,我们构建了包含 **45.1k** 样本的数据集,并平均划分为训练集和测试集。 ## **🌟 评估框架 (Evaluation Framework)** 我们提出了一种新颖的、基于最终渲染页面的评估协议,从布局和样式两个核心维度进行量化评估。 ### **RDA (Relative Layout Difference of Associated Elements)** **目的**: 评估关联元素的相对布局差异。 * **关联元素匹配**: 通过文本相似度(LCS)和位置/尺寸差异来匹配生成页面与目标页面中的对应元素。 * **位置偏差量化**: 将页面划分为九宫格,严格比较关联元素对所在的象限。若象限不同则得分为0,否则根据其相对偏移计算得分。 * **唯一性加权**: 根据元素的重复度(Race Group大小)为其分配权重,越独特的元素权重越高。 ### **GDA (Group-wise Difference in Element Counts)** **目的**: 评估轴对齐元素的群组一致性。 * **元素分组**: 将在同一水平或垂直轴上对齐的元素视为一个群组。 * **数量一致性比较**: 比较生成页面与目标页面中对应群组的元素数量是否一致。 * **唯一性加权**: 同样采用元素的唯一性进行加权,以突出关键布局结构的对齐。 ### **SDA (Style Difference of Associated Elements)** **目的**: 评估关联元素的细粒度样式差异。 * **多维度样式提取**: 评估前景颜色、背景颜色、字体大小和边框圆角等关键视觉属性。 * **加权平均**: 对每个关联元素对的各项样式得分进行加权平均,计算出最终的页面整体样式得分。 ## **⚙️ 安装指南 (Installation Guide)** ### **核心依赖 (Core Dependencies)** Coming Soon ## **📊 基准测试流程 (Benchmark Workflow)** ### **目录结构 (Directory Structure)** |- docs/ \# 文档 |- scripts \# 评测脚本 |- web_render_test.jsonl \# 测试数据 |- web_render_train.jsonl \# 训练数据 |- test_webpages.zip \# 测试集网页数据 |- train_webpages.zip \# 训练集网页数据 |- test_screenshots.zip \# 测试集截图数据 |- train_screenshots.zip \# 训练集截图数据 ### **使用流程 (Implementation Steps)** 1. **数据准备 (Data Preparation)** * 从指定位置下载 WebRenderBench 数据集并将网页和截图分别解压。 * 数据集包含成对的网页截图和对应的真实网页代码(HTML及相关资源)。 2. **模型推理 (VLM Inference)** * 使用 vLLM/LLM Deploy 等引擎运行推理保存结果至指定目录。 3. **结果评估 (Evaluation)** * 运行 scripts/1_get_evalutation.py 脚本。 * 该脚本会启动一个 Web Server,用于渲染生成的 HTML 和目标 HTML。 * 通过 WebDriver 提取 DOM 信息,并计算 RDA, GDA, SDA 分数。 * 单例评估结果将保存在 save_results/ 目录中。 * 评估结果通过 scripts/2_compute_alisa_scores.py 计算 4. **ALISA 框架训练 (Optional: ALISA Training)** * 使用 models/train\_rl.py 脚本进行强化学习训练。 (Coming Soon) * 评估脚本计算出的分数将作为奖励信号,通过 GRPO 等算法优化策略模型。 ## **📈 模型性能洞察 (Model Performance Insights)** 我们对17个不同规模和架构的闭源及开源多模态大语言模型进行了评估。 * **RDA, GDA, and SDA 综合得分 (%)** ![Inference Results](./docs/assets/inference_results.png) * **关键发现**: * 整体而言,模型规模越大,性能越好。GPT-4.1-mini 和 Qwen-VL-Plus 在闭源模型中表现最佳。 * 所有模型在处理简单页面(Group Count \< 50)时表现尚可,但随着页面复杂度增加,RDA(布局)得分急剧下降,表明精确布局对齐仍是巨大挑战。 * 通过 ALISA 框架训练后,Qwen2.5-VL-7B 在所有复杂度区间的性能均得到显著提升,甚至在简单页面上超越了 GPT-4.1-mini。 ## **📅 未来计划 (TO-DO)** * \[ \] 发布经过 ALISA 框架微调的预训练模型。 * \[ \] 扩充数据集,涵盖更多行业垂直领域和更多动态交互场景。 * \[ \] 开源用于数据采集、清洗和评估的全套工具链。 ## **📜 许可证 (License)** WebRenderBench 数据集遵循 仅供研究使用 的原则。代码部分将基于 Apache License 2.0 发布。 数据集中的网页均来自公开可访问的企业门户网站。为保护隐私,所有个人及敏感信息已被移除或修改。 ## **📚 如何引用 (Citation)** 如果您在研究中使用了我们的数据集或框架,请引用我们的论文: ```bibtex @article{webrenderbench2025, title={WebRenderBench: Enhancing Web Interface Generation through Layout-Style Consistency and Reinforcement Learning}, author={Anonymous Author(s)}, year={2025}, journal={arXiv preprint}, } ```