|
|
<p align="center"> |
|
|
<img src="./docs/assets/logo.svg" alt="Logo" width="120" /> |
|
|
<p align="center"> |
|
|
<a href="https://github.com/PKU-DAIR"> |
|
|
<img alt="Static Badge" src="https://img.shields.io/badge/%C2%A9-PKU--DAIR-%230e529d?labelColor=%23003985"> |
|
|
</a> |
|
|
</p> |
|
|
</p> |
|
|
|
|
|
|
|
|
## **WebRenderBench: Enhancing Web Interface Generation through Layout-Style Consistency and Reinforcement Learning** |
|
|
|
|
|
[Paper](https://arxiv.org/pdf/2510.04097) |
|
|
|
|
|
## **🔍 概述 (Overview)** |
|
|
|
|
|
WebRenderBench 是一个全新的大规模基准测试,旨在通过对真实世界网页的评估,推动多模态大语言模型(MLLMs)在 WebUI-to-Code 任务上的发展。我们的基准测试提供: |
|
|
|
|
|
* **45,100个** 从真实门户网站收集的网页样本 |
|
|
* **高多样性和复杂性**,涵盖广泛的行业和设计风格 |
|
|
* **全新的评估指标**,基于渲染后页面的**布局与样式一致性** |
|
|
* **ALISA 强化学习框架**,利用新指标作为奖励信号,优化模型生成质量 |
|
|
|
|
|
## **🚀 主要特性 (Key Features)** |
|
|
|
|
|
### **超越传统基准的局限性** |
|
|
|
|
|
WebRenderBench 旨在解决现有 WebUI-to-Code 基准测试在数据质量和评估方法上的核心痛点: |
|
|
|
|
|
| 方面 (Aspect) | 传统基准 (Traditional Benchmarks) | WebRenderBench 优势 (Advantage) | |
|
|
| :---- | :---- | :---- | |
|
|
| **数据质量 (Data Quality)** | 规模较小,结构简单,或由LLM合成,多样性有限 | 源自真实世界的大规模复杂网页,更具挑战性 | |
|
|
| **评估可靠性 (Evaluation Reliability)** | 依赖视觉API(成本高)或代码结构对比(无法处理代码不对称问题) | 基于最终渲染结果进行客观、高效的布局与样式量化评估 | |
|
|
| **训练有效性 (Training Effectiveness)** | 难以在代码不对称的爬取数据上进行有效优化 | 提出的评估指标可直接用作强化学习奖励,提升模型性能 | |
|
|
|
|
|
### **数据集特征 (Dataset Characteristics)** |
|
|
|
|
|
<p align="center"> |
|
|
<img src="./docs/assets/framework.svg" alt="WebRenderBench an ALISA Framework" width="80%" /> |
|
|
</p> |
|
|
<p align="center"><i>图1: 数据集构建流程与 ALISA 框架</i></p> |
|
|
我们的数据集通过一个系统化的流程构建,确保其高质量和多样性: |
|
|
|
|
|
1. **数据收集**: 从公开的企业门户网站数据集中获取URL,并使用高并发爬虫抓取了21万个网页及其静态资源。 |
|
|
2. **数据处理**: 将 MHTML 页面转换为 HTML 文件,并处理跨域资源,确保页面可本地渲染并进行全页面截图。 |
|
|
3. **数据清洗**: 过滤掉尺寸异常、渲染异常或样式缺失的页面。利用多模态模型进行QA,去除存在大面积空白或元素重叠的低质量样本,最终筛选出11万个页面。 |
|
|
4. **数据分类**: 根据行业和元素复杂度(通过 Group Count 衡量)进行分类,确保数据集在复杂度和领域上分布均衡。 |
|
|
|
|
|
最终,我们构建了包含 **45.1k** 样本的数据集,并平均划分为训练集和测试集。 |
|
|
|
|
|
## **🌟 评估框架 (Evaluation Framework)** |
|
|
|
|
|
我们提出了一种新颖的、基于最终渲染页面的评估协议,从布局和样式两个核心维度进行量化评估。 |
|
|
|
|
|
### **RDA (Relative Layout Difference of Associated Elements)** |
|
|
|
|
|
**目的**: 评估关联元素的相对布局差异。 |
|
|
|
|
|
* **关联元素匹配**: 通过文本相似度(LCS)和位置/尺寸差异来匹配生成页面与目标页面中的对应元素。 |
|
|
* **位置偏差量化**: 将页面划分为九宫格,严格比较关联元素对所在的象限。若象限不同则得分为0,否则根据其相对偏移计算得分。 |
|
|
* **唯一性加权**: 根据元素的重复度(Race Group大小)为其分配权重,越独特的元素权重越高。 |
|
|
|
|
|
### **GDA (Group-wise Difference in Element Counts)** |
|
|
|
|
|
**目的**: 评估轴对齐元素的群组一致性。 |
|
|
|
|
|
* **元素分组**: 将在同一水平或垂直轴上对齐的元素视为一个群组。 |
|
|
* **数量一致性比较**: 比较生成页面与目标页面中对应群组的元素数量是否一致。 |
|
|
* **唯一性加权**: 同样采用元素的唯一性进行加权,以突出关键布局结构的对齐。 |
|
|
|
|
|
### **SDA (Style Difference of Associated Elements)** |
|
|
|
|
|
**目的**: 评估关联元素的细粒度样式差异。 |
|
|
|
|
|
* **多维度样式提取**: 评估前景颜色、背景颜色、字体大小和边框圆角等关键视觉属性。 |
|
|
* **加权平均**: 对每个关联元素对的各项样式得分进行加权平均,计算出最终的页面整体样式得分。 |
|
|
|
|
|
## **⚙️ 安装指南 (Installation Guide)** |
|
|
|
|
|
### **核心依赖 (Core Dependencies)** |
|
|
|
|
|
<!-- \# 推荐使用 vLLM 以获得更快的推理速度 |
|
|
pip install vllm transformers\>=4.40.0 torch\>=2.0 |
|
|
|
|
|
\# 其他通用依赖 |
|
|
pip install selenium pandas scikit-learn pillow |
|
|
|
|
|
或者通过需求文件安装: |
|
|
|
|
|
pip install \-r requirements.txt --> |
|
|
|
|
|
Coming Soon |
|
|
|
|
|
## **📊 基准测试流程 (Benchmark Workflow)** |
|
|
|
|
|
### **目录结构 (Directory Structure)** |
|
|
|
|
|
|- docs/ \# 文档 |
|
|
|- scripts \# 评测脚本 |
|
|
|- web_render_test.jsonl \# 测试数据 |
|
|
|- web_render_train.jsonl \# 训练数据 |
|
|
|- test_webpages.zip \# 测试集网页数据 |
|
|
|- train_webpages.zip \# 训练集网页数据 |
|
|
|- test_screenshots.zip \# 测试集截图数据 |
|
|
|- train_screenshots.zip \# 训练集截图数据 |
|
|
|
|
|
### **使用流程 (Implementation Steps)** |
|
|
|
|
|
1. **数据准备 (Data Preparation)** |
|
|
* 从指定位置下载 WebRenderBench 数据集并将网页和截图分别解压。 |
|
|
* 数据集包含成对的网页截图和对应的真实网页代码(HTML及相关资源)。 |
|
|
2. **模型推理 (VLM Inference)** |
|
|
* 使用 vLLM/LLM Deploy 等引擎运行推理保存结果至指定目录。 |
|
|
3. **结果评估 (Evaluation)** |
|
|
* 运行 scripts/1_get_evalutation.py 脚本。 |
|
|
* 该脚本会启动一个 Web Server,用于渲染生成的 HTML 和目标 HTML。 |
|
|
* 通过 WebDriver 提取 DOM 信息,并计算 RDA, GDA, SDA 分数。 |
|
|
* 单例评估结果将保存在 save_results/ 目录中。 |
|
|
* 评估结果通过 scripts/2_compute_alisa_scores.py 计算 |
|
|
4. **ALISA 框架训练 (Optional: ALISA Training)** |
|
|
* 使用 models/train\_rl.py 脚本进行强化学习训练。 (Coming Soon) |
|
|
* 评估脚本计算出的分数将作为奖励信号,通过 GRPO 等算法优化策略模型。 |
|
|
|
|
|
## **📈 模型性能洞察 (Model Performance Insights)** |
|
|
|
|
|
我们对17个不同规模和架构的闭源及开源多模态大语言模型进行了评估。 |
|
|
|
|
|
* **RDA, GDA, and SDA 综合得分 (%)** |
|
|
|
|
|
 |
|
|
|
|
|
* **关键发现**: |
|
|
* 整体而言,模型规模越大,性能越好。GPT-4.1-mini 和 Qwen-VL-Plus 在闭源模型中表现最佳。 |
|
|
* 所有模型在处理简单页面(Group Count \< 50)时表现尚可,但随着页面复杂度增加,RDA(布局)得分急剧下降,表明精确布局对齐仍是巨大挑战。 |
|
|
* 通过 ALISA 框架训练后,Qwen2.5-VL-7B 在所有复杂度区间的性能均得到显著提升,甚至在简单页面上超越了 GPT-4.1-mini。 |
|
|
|
|
|
## **📅 未来计划 (TO-DO)** |
|
|
|
|
|
* \[ \] 发布经过 ALISA 框架微调的预训练模型。 |
|
|
* \[ \] 扩充数据集,涵盖更多行业垂直领域和更多动态交互场景。 |
|
|
* \[ \] 开源用于数据采集、清洗和评估的全套工具链。 |
|
|
|
|
|
## **📜 许可证 (License)** |
|
|
|
|
|
WebRenderBench 数据集遵循 仅供研究使用 的原则。代码部分将基于 Apache License 2.0 发布。 |
|
|
|
|
|
数据集中的网页均来自公开可访问的企业门户网站。为保护隐私,所有个人及敏感信息已被移除或修改。 |
|
|
|
|
|
## **📚 如何引用 (Citation)** |
|
|
|
|
|
如果您在研究中使用了我们的数据集或框架,请引用我们的论文: |
|
|
|
|
|
```bibtex |
|
|
@article{webrenderbench2025, |
|
|
title={WebRenderBench: Enhancing Web Interface Generation through Layout-Style Consistency and Reinforcement Learning}, |
|
|
author={Anonymous Author(s)}, |
|
|
year={2025}, |
|
|
journal={arXiv preprint}, |
|
|
} |
|
|
``` |
|
|
|