Confluence迁移中遇到的问题(Data too long for column 'STRINGVAL')及解决方法

DD的博客全面升级,阅读体验更佳(尤其是系列教程),后续不再通过这里发布新文章,而是改到 www.didispace.com 发布啦,奔走相告!点击直达~

今天因为团队需要,协助帮忙看Confluence的这个问题,通过大半天的分析研究也得到不少收获,在此记录一下问题的原因以及最后的解决方案,希望对各位在迁移中碰到类似问题的大神们有所帮助。

迁移步骤


先大致说一下基本的迁移步骤:

创建备份

  • 使用管理员账户登录Confluence,点击右上角“齿轮”图标,选择General Configuration
  • 在侧边栏中,选择Backup & Restore
  • 勾选Archive to backups folder让生成的备份创建归档至Confluence自动备份目录,如果不点选会生成在临时目录中,并且会在24小时后自动清除
  • 勾选Backup attachments,将附件内容加入到备份中
  • 点击Backup按钮,等待备份完毕。

系统恢复

  • 在新安装的Confluence中,用管理员账号登陆,点击右上角“齿轮”图标,选择General Configuration
  • 在侧边栏中,选择Backup & Restore
  • 点击Choose File,在弹出框中选择上一步中创建的备份文件
  • 点击Upload and Restore,进行上传和恢复

基本步骤如上所述,若没有碰到任何问题那是最好的。若没有成功,在日志中查看到类似这样的错误:

com.atlassian.confluence.importexport.ImportExportException: Unable to complete import: Error while importing backup: could not insert: [com.atlassian.confluence.content.ContentProperty#32178794]
……
ERROR [Long running task: Importing data] [sf.hibernate.util.JDBCExceptionReporter] logExceptions Data truncation: Data too long for column 'STRINGVAL' at row 1

注:错误信息只截取了重要内容,省略部分异常堆栈内容。

关于这个错误在官方JIRA中已有Issue,但还是open状态,所以应该无法通过升级来解决,所以如果碰到类似的问题,那就继续往下看,若是其他错误,可以查看这里是否有类似的错误原因:Troubleshooting XML backups that fail on restore

解决方法


由于Confluence没有开源,无法为其贡献Patch,所以主要从备份文件的角度去分析与处理。

  • 报错信息分析:我们可以定位是在插入数据库的时候STRINGVAL字段超长,并且该字段位于ContentProperty对象中
  • 查看数据库中有相对应的CONTENTPROPERTY表,表结构如下,可以看到STRINGVAL字段长度为255
+--------------+--------------+------+-----+---------+-------+
| Field | Type | Null | Key | Default | Extra |
+--------------+--------------+------+-----+---------+-------+
| PROPERTYID | bigint(20) | NO | PRI | NULL | |
| PROPERTYNAME | varchar(255) | NO | MUL | NULL | |
| STRINGVAL | varchar(255) | YES | MUL | NULL | |
| LONGVAL | bigint(20) | YES | MUL | NULL | |
| DATEVAL | datetime | YES | MUL | NULL | |
| CONTENTID | bigint(20) | YES | MUL | NULL | |
+--------------+--------------+------+-----+---------+-------+
  • 解压开备份文件,可以看到我们有下面三个内容,通过查看内容大致可以定位导入出错的数据来源自entities.xml

    • entities.xml
    • exportDescriptor.properties
    • plugin-data
  • 看看entities.xml的结构,大致如下:

<object class="ContentProperty" package="com.atlassian.confluence.content">
<id name="id">1705394</id>
<property name="name"><![CDATA[inline-original-selection]]></property>
<property name="stringValue"><![CDATA[XXXXXXX]]></property>
<property name="longValue"/><property name="dateValue"/>
</object>
  • 大致可以判断出超长的字段特点为:class属性为ContentPropertyObject标签下,namestringValueproperty标签内容。根据此特点,可通过下面的代码找到超长的内容。
File file = new File(getClass().getResource("/entities.xml").getFile());
SAXReader reader = new SAXReader();
Document document = reader.read(file);
List<Element> list = document.getRootElement().selectNodes("//object[@class='ContentProperty']");
for(Element e : list) {
Element element = (Element)e.elements("property").get(1);
String text = element.getText();
if(text.length() > 255) {
System.out.println(text);
}
}
  • 在找到对应内容后,可以删除一些内容,再尝试导入。读者也可以根据上述代码稍作修改,来生成新的xml使用。

后记


由于数据库定义字段为255,那么从数据库中取出数据时,肯定是255的不会错,因此猜测是在export组织xml时增加了一些东西导致。根据我们这边异常数据来看,最后超出部分正好是三个点:...,不知道遇到类似问题的大家是否也是类似情况,欢迎留言一起找找具体原因。最近实在太忙,大致反编译看了一些export的内容,但是未找到具体原因,后续有时间再看看吧。

另外,confluence的这部分class并不在confluence/WEB-INF/classes目录下,大家有欲望研究的需要去confluence/WEB-INF/lib下解压confluence-5.x.x.jar,并反编译获得,有读者找到具体原因的话,欢迎留言或邮件交流 ^_^