基于参数核图割的纱线毛羽图像处理方法
苏泽斌, 黄梦莹, 景军锋     
西安工程大学 电子信息学院, 陕西 西安 710048
摘要: 为了准确计算纱线毛羽特征参数,克服图割法中人为随机选择阈值造成的消极影响,提出了一种基于参数核图割的图像处理纱线毛羽算法.首先,采用局部最大类间方差法获取纱线二值图像,并与纱芯二值图像作逻辑运算,提取毛羽进行特征分析.然后,选取两种不同支数的纱线,以USTER CLASSIMAT 5测试结果为标准,比较参数核图割法与区域生长法、线性近似纱芯边界法对纱芯分割图像处理方法的优劣.结果表明,参数核图割法耗时少、误分点少,毛羽检测算法准确率高达95.5%,远优于另两种算法,也证明了选取不同的纱芯分割方法将直接影响毛羽特征分析的准确性.
关键词: 图像处理     图像分割     纱线毛羽     参数核图割     纱芯分割     毛羽特征分析    
Image processing of yarn hairiness based on parametric kernel graph cut method
SU Zebin, HUANG Mengying, JING Junfeng     
School of Electronics and Information, Xi'an Polytechnic University, Xi'an 710048, China
Abstract: In order to calculate yarn hairiness characteristic parameter accurately, and overcome the negative impact from selecting threshold artificially in graph cut method, image processing algorithm of yarn hairiness based on parametric kernel graph cut method is proposed. Firstly, the yarn core binary image is acquired via the step of yarn core segmentation by parametric kernel graph cut method, and then the logical operation is carried out between the yarn binary image and the yarn core binary image to extract hairiness for characteristic analysis.Then, the method is compared with two image processing methods previously used for yarn core segmentation in terms of two kinds of yarn samples. The experimental results show that the method achieves the least time and minimum number of classification error, the proposed algorithm is more precise and accurate, and reaches up to 95.5%, compared with the other two methods in the standard of test results of USTER CLASSIMAT 5. Meanwhile, it is proved that the accuracy of hairiness characteristic analysis is directly influenced by yarn core segmentation method.
Key words: image processing    image segmentation    yarn hairiness    parametric kernel graph cut    yarn core segmentation    hairiness characteristic analysis    
0 引言

在纱线质量检测中, 毛羽是衡量纱线质量好坏的重要指标.毛羽的基本形态分为两类[1-2]:一类是纤维头端(一端或两端)伸出纱芯的端毛羽; 另一类是两端在纱芯内而中段成圈状浮在纱芯外的圈毛羽.毛羽越长, 对纱线的性能、质量和后序加工过程的影响越大.行业认为2 mm以上的毛羽即会产生不良影响, 并定义3 mm及以上的毛羽长度为临界长度及有害长度[3].因此, 很有必要准确测量纱线毛羽的特征参数, 从而为纱线生产过程提供参考信息.

纱线毛羽由于细微、复杂, 使其成为难以准确检测的指标.对此, 国内外学者提出了不同的研究方法[2, 4-5].纱线毛羽的检测最初是以手工方式实现的, 通过显微镜将纱线图片放大, 再使用曲线计进行手工测量[6].此法费时费力, 会因个人对毛羽边界的定义存在差异造成误差.因此, 人们一直致力于用自动检测系统替代传统的手工测量.目前, 商业上使用最广泛且发展较成熟的毛羽检测方法是光电法, 它通过投影计数法[7]或全毛羽光电法[8]自动检测纱线毛羽, 其中以瑞士USTER公司的毛羽检测装置尤为出色.随着数字图像处理技术和机器视觉的快速发展, 充分利用该技术克服其他检测方法的缺点, 实现对纱线毛羽的客观评定, 对提高纱线质量具有重要的意义[9-12].

采用图像处理技术分析纱线毛羽时, 图像分割起到了关键的作用.图像分割在研究纱线毛羽时主要用于纱线分割和纱芯分割, 分别获取纱线二值图像和纱芯二值图像[11].由于纱芯粗细不匀, 且与其附近的毛羽灰度值差异不大, 提取完整的纱芯轮廓成为难点.对同一纱线图片而言, 纱芯分割结果不同, 毛羽区域指数、毛羽长度指数、毛羽标准差和毛羽变异系数的计算结果也不同, 因此, 选取合适的纱芯分割方法是准确计算毛羽特征参数的前提.基于此, 本文采用参数核图割法获得纱芯, 并将分割结果与区域生长法[13-14]和线性近似纱芯边界法[9]进行对比.实验结果表明, 基于参数核图割的纱线毛羽图像处理算法与USTER CLASSIMAT 5装置测出的参考结果具有高度一致性.

1 图像采集与算法流程 1.1 图像采集

纱线毛羽图像采集系统, 主要包括CCD面阵相机、带柔光箱的LED光源、PC机以及导纱装置.其中相机选取BASLER公司的acA1300-30 gm面阵相面,配备尺寸为4.86 mm×3.62 mm的SonyICX445 CCD感光工芯片,帧速率为30 fps, 分辨率为130万像素.其水平/垂直分辨率为1 296像素×966像素,水平/垂直像素尺寸为3.75 μm×3.75 μm, 接口类型为GigE.为了获取清晰的纱线毛羽图像, 在图像采集前, 需要对相机的曝光时间、图像分辨率, 镜头焦距、光圈的大小, 光源亮度以及待测纱线与相机镜头平面的空间距离等进行调试.设置曝光时间为800, 图像分辨率为256×256, 待测纱线与相机镜头平面的空间距离约为14.5 cm.根据检测对象的特殊性, 该采集系统共设置2个柔光箱, 一个柔光箱平面与黑色导纱台呈45°, 另一个柔光箱平面与黑色导纱台呈90°.

1.2 纱线毛羽算法流程

算法流程主要包括4部分:(1) 采用局部最大类间方差法(简称局部OTSU法)进行纱线分割, 将灰度化的纱线图像转化为二值图像, 使得整个纱线与背景分割; (2) 采用参数核图割法进行纱芯分割, 将纱芯从灰度纱线图像中单独提取; (3) 将前两步获得的纱线二值图像与纱芯二值图像作逻辑运算, 提取毛羽二值图像; (4) 对毛羽二值图像进行特征分析.纱线毛羽图像处理算法主要流程如图 1所示.

图 1 算法主要流程 Figure 1 The main flowchart of algorithm
2 图像处理 2.1 纱线分割

若纱线灰度图像的纱轴倾斜, 则采用Hough变换[15]对图像进行倾斜校正.灰度图及倾斜校正后的结果如图 2, 3所示.鉴于纱线毛羽与黑色背景之间的灰度差异不明显, 若采用全局最大类间方差法[16]对整幅图像进行纱线与背景的分离, 则会将部分毛羽信息误归为背景一类.因此, 本文采用局部OTSU法对纱线图像进行分割.首先将像素256×256的纱线图像分成像素16×16的区域, 再分别对这些区域寻找灰度直方图上波谷横坐标对应的灰度值, 将之作为所在区域的分割阈值, 完成区域内部分割.由图 4得出, 局部OTSU法能很好地分割纱线与背景, 保证了毛羽的完整性.

图 2 灰度图 Figure 2 Gray image
图 3 倾斜校正图 Figure 3 Tilt correction image
图 4 纱线分割图 Figure 4 Yarn segmentation image
2.2 纱芯分割

图割算法是一种基于图的组合优化方法, 它将一幅图像映射成一个无向带权图, 并建立关于标签的目标函数, 运用最小割/最大流原理对无向带权图进行切割, 得到无向带权图的最小割, 即目标函数的最小值.

对于无监督图割法, 主要缺点是分段模型未能广泛适用于各种图像, 不同图像或同一图像的不同区域可能需要不同的分段模型.对此, 用户交互是一种解决方式, 它能在分割过程的任意一步学习区域参数, 从而使模型更通用.但该参数的学习过程不是由目标函数优化得到, 只是松散的耦合, 且容易陷入局部最小值, 不能获得最优的纱芯分割结果.

因此, 本文提出基于参数核图割的纱芯分割方法[17-18], 该算法在不需要明确映射过程的前提下能将纱线图像数据通过隐式核函数映射到高维空间, 同时解决了分段模型适用性的问题.此外, 该算法既不需要先验知识, 也不会出现人为随机选择阈值造成的消极影响, 同时能达到全局最优.该算法可以很好地融合图像中局部与全局信息, 同时对于没有进行滤波的图像, 分割效果也较好, 这是因为此方法不仅是把图像分割成目标和背景, 更多的是分割出更多的子图像, 作进一步分割处理, 可以得到更多的分割区域, 因此对于噪声干扰具有稳健性.同时该算法在分割合成图像时误分率更低, 尤其在处理光学等类型图像时, 可以保留更多的图像细节信息, 分割结果轮廓完整, 边缘清晰, 准确率更高.

2.2.1 图割法

I:pΩR2Ip=I(p)∈Ι表示图像函数中位置为p的像素点从位置空间Ω到图像空间Ι的映射.图割法将图像分割问题视为标签分配问题, 即为图像中每个像素分配一个有限标签集L中的标签l.

定义标签函数λ, λΩ中的像素分配一个标签:

$\lambda :p \in \mathit{\Omega } \to \lambda \left( p \right) \in L.$ (1)

定义具有相同标签l的像素集为Rl, 则Rl在标签函数λ中表示为

${R_l} = \left\{ {p \in \mathit{\Omega }|\lambda \left( p \right) = l} \right\},1 \le l \le {N_{{\rm{seg}}}}.$ (2)

式中:Nseg表示将图像I分割成Nseg个区域.根据文献[19]可知, 图割法的分割目标函数可表示为

$F\left( \lambda \right) = D\left( \lambda \right) + \alpha \mathit{\Theta }\left( \lambda \right).$ (3)

式中:D表示数据项, 用于测量分割区域内图像数据相对于统计模型的一致性; Θ表示调整项, 用于平滑区域边界; α≥0表示调整项相对于数据项的权重因子.

采用高斯分布的分段常数模型[20-21]构造数据项, 即

$D\left( \lambda \right) = \sum\limits_{p \in \mathit{\Omega }} {{D_p}\left( {\lambda \left( p \right)} \right)} = \sum\limits_{l \in L} {\sum\limits_{p \in {R_l}} {{{\left( {{\mu _l} - {I_p}} \right)}^2}} } .$ (4)

式中:μl表示区域Rl的分段常数模型参数.

采用的调整项为

$\mathit{\Theta }\left( \lambda \right) = \sum\limits_{\left\{ {p,q} \right\} \in N} r \left( {\lambda \left( p \right),\lambda \left( q \right)} \right).$ (5)

式中:N表示所有相邻像素对的集合; r(λ(p), λ(q))表示平滑正则函数, 由文献[21-22]可知

$r\left( {\lambda \left( p \right),\lambda \left( q \right)} \right) = \min \left( {{\rm{C}},{{\left| {\lambda \left( p \right) - \lambda \left( q \right)} \right|}^2}} \right).$ (6)

式中:C表示常数.

2.2.2 参数核图割法

ϕ(·)表示从图像空间I到高维特征空间J的非线性映射.引入核函数K(y, z):K(y, z)=ϕ(y)T·ϕ(z), ∀(y, z)∈Ι2.

若要实现图像分割, 即寻找标签使得目标函数最小化, 则目标函数可表示为

${F_K}\left( {\left\{ {{\mu _l}} \right\}\lambda } \right) = \sum\limits_{l \in L} {\sum\limits_{p \in {R_l}} {{{\left( {\phi \left( {{\mu _l}} \right) - \phi \left( {{I_p}} \right)} \right)}^2}} } + \alpha \sum\limits_{\left\{ {p,q} \right\} \in N} {r\left( {\lambda \left( p \right),\lambda \left( q \right)} \right)} .$ (7)

式中: FK测量的是区域参数μl(1≤lNseg)和图像数据之间的核诱导非欧式距离.

根据非欧式距离, 定义JK(Ip, μ):

${J_K}\left( {{I_p},\mu } \right) = {\left\| {\phi \left( {{I_p}} \right) - \phi \left( \mu \right)} \right\|^2} = K\left( {{I_p},{I_p}} \right) + K\left( {\mu ,\mu } \right) - 2K\left( {{I_p},\mu } \right),\mu \in {\left\{ {{\mu _l}} \right\}_{1 \le l \le {N_{{\rm{seg}}}}}}.$ (8)

将式(8) 代入式(7) 得

${F_K}\left( {\left\{ {{\mu _l}} \right\}\lambda } \right) = \sum\limits_{l \in L} {\sum\limits_{p \in {R_l}} {{J_K}\left( {{I_p},{\mu _l}} \right)} } + \alpha \sum\limits_{\left\{ {p,q} \right\} \in N} {r\left( {\lambda \left( p \right),\lambda \left( q \right)} \right)} .$ (9)

由式(9) 可知, 区域参数{μl}l=1Nseg与标签函数λ共同决定目标函数FK.因此, 本文对目标函数FK分两步迭代进行优化直至收敛, 实现最小化:

Step 1:固定标签函数λ, 通过不动点计算优化目标函数FK以此更新区域参数{μl}l=1Nseg.给定一个图像的子区域Rk, kL, 即

$\frac{{\partial {F_K}}}{{\partial {\mu _k}}} = \sum\limits_{p \in {R_k}} {\frac{\partial }{{\partial {\mu _k}}}\left[ {K\left( {{\mu _k},{\mu _k}} \right) - 2K\left( {{I_p},{\mu _k}} \right)} \right]} + \alpha \sum\limits_{p \in {C_k}} {\sum\limits_{q \in \overline {{N_p}} } {\left( {{\mu _k} - {\mu _{\lambda \left( q \right)}}} \right)} } ,k \in L.$ (10)

式中:$\overline {{N_p}} $表示像素p的相邻像素集q, λ(q)≠λ(p), μλ(p)-μλ(q)<const; Ck表示每个区域Rk的边界.

根据大量试验, 采用高斯径向核函数(RBF)[17-23], 即:K(y, z)=exp(-‖y-z2/σ2), 因此, 区域参数μk的不动点迭代公式为

${\mu _k} - {f_{{R_k}}}\left( {{\mu _k}} \right) = 0,k \in L.$ (11)

其中,

${f_{{R_k}}}\left( {{\mu _k}} \right) = \frac{{\sum\limits_{p \in {R_k}} {{I_p}K\left( {{I_p},{\mu _k}} \right)} + \alpha \sum\limits_{p \in {C_k}} {\sum\limits_{q \in \overline {{N_p}} } {{\mu _{\lambda \left( q \right)}}} } }}{{\sum\limits_{p \in {R_k}} {K\left( {{I_p},{\mu _k}} \right)} + \alpha \sum\limits_{p \in {C_k}} {\# \overline {{N_p}} } }}k \in L.$ (12)

式中:#表示集合的势.

Step 2:由Step 1得出的区域参数μk, 通过图割法优化进行标签的更新, 寻找图像的最优标签.

图割法中, 图像被视为一个无向带权图, 令G=〈V, E〉表示带权图中的节点集V和边集E, 节点集V中包括像素节点和终端节点S(目标)、T(背景), 边界集E中包括连接两个像素节点的边n-links和连接像素节点和终端节点的边t-links.存在一个“割”CE, 将G分成分别包含终端节点ST的两个子图, 若此“割”使得边的所有权值之和最小(两个子图之间的联系最弱), 即为最小割, 此时目标函数最小化, 图像分割完成, 分割原理如图 5所示[19-24].

图 5 图割法原理 Figure 5 The principle of segmentation

对于每对标签{θ, β}, 即包含终端节点θ和β的两个子图, 通过最小割/最大流原理来寻找图Gθ, β=〈Vθ, β, Eθ, β〉的最小割.在寻找最小割的过程中, 边的权值分配如表 1所示.

表 1 权重分配 Table 1 Weight distribution
权重范围
{p, θ}${{J}_{K}}\left( {{I}_{p}},\theta \right)+\sum\limits_{\begin{smallmatrix} q\in {{N}_{p}} \\ q\notin P\theta ,\beta \end{smallmatrix}}{r\left( \theta ,\lambda \left( q \right) \right)}$pPθ, β
{p, β}${{J}_{K}}\left( {{I}_{p}},\beta \right)+\sum\limits_{\begin{smallmatrix} q\in {{N}_{p}} \\ q\notin P\theta ,\beta \end{smallmatrix}}{r\left( \beta ,\lambda \left( q \right) \right)}$pPθ, β
e{p, q}(表示两个不同像素节点pq的边)r(θ, β){p, q}∈N, p, qPθ, β

采用参数核图割法进行分割后的纱芯图如图 6所示.

图 6 纱芯分割 Figure 6 Core segmentation
2.3 毛羽提取与特征参数

将纱线二值图像与纱芯二值图像作逻辑运算, 提取毛羽二值图像, 如图 7所示.

图 7 毛羽提取 Figure 7 Hairiness extraction

为了更好地定量分析纱线毛羽特征参数, 需要进行单位标定, 确定米制单位与像素之间的转换关系.

根据乌斯特公报2013版[25], 毛羽长度指数HL等于1 cm长度纱线上伸出纱芯的纤维长度总和LF(单位为mm)与传感器长度LC=1 cm的比值, 因此, 毛羽长度指数是无量纲的, 即

${{H}_{L}}=10\left( {{L}_{F}}/{{L}_{C}} \right).$ (13)

对于纱线, 常出现大量毛羽紧贴在纱芯边缘的情况, 由于光照等一些影响, 此时可能会将这些毛羽视为纱芯的一部分, 造成测得的毛羽长度指数比实际值要偏小.同时, 毛羽长度指数忽略了纱芯粗细的影响, 即使具有相同毛羽长度指数的两类纱线, 也不能判断两者纱芯相同.因此, 图像处理领域提出毛羽区域指数HA这一项特征参数, 定义如式(14) 所示, 它与毛羽长度指数HL共同作用, 使得对毛羽分布的描述更准确.

${{H}_{A}}={{S}_{F}}/{{S}_{C}}.$ (14)

式中:SF表示毛羽像素的数目, SC表示纱芯像素的数目.

标准差S是考核毛羽分布的第二指标, 是描述纱线卷装内部毛羽变异的数值.变异系数CVH描述整体毛羽的分布情况, 是考核批量生产纱线的毛羽分布均匀状况的量化指标[3].

$S=\sqrt{\frac{1}{n}\sum\limits_{i=1}^{n}{{{\left( {{H}_{{{L}_{i}}}}-{{{\bar{H}}}_{L}} \right)}^{2}}}}.$ (15)
$C{{V}_{H}}=100\frac{S}{{{{\bar{H}}}_{L}}}.$ (16)

式中:n表示选取的毛羽图片数目; HLi表示第i张图片的毛羽长度指数; HL表示平均毛羽长度指数.

3 实验和分析

采用两种不同纱线对所提算法进行实验验证, 第一种纱线为32英支, 平均直径为0.874 9 mm的普梳环锭纺棉纱, 记为样本1;第二种纱线为40英支, 平均直径为0.794 4 mm的精梳环锭纺棉纱, 记为样本2.通过BASLER公司的acA1300-30 gm相机采集的大量像素为256×256的静态纱线图片奠定了实验的准确性, 且采集纱线图片时有所间隔, 消除了周期性纱线不规则的影响.

采用参数核图割法进行纱芯分割时, α作为控制数据项与调整项之间的权重因子, 起到了很重要的作用, 能直接影响分割结果的好坏.α值越大, 分割的区域一致性越好, 对形状单一、区域集中的目标就越适合, 而较小权重因子则适合局部细节可分性强、形状复杂且相对离散的目标.经过纱线图库的试验, 图 8展示出α不同取值时所对应的分割结果.由图 8可知, 当α<0.5时, 部分毛羽像素仍残留, 且纱芯轮廓过度细节化; 当α=0.7时, 虽已完全排除毛羽的干扰, 但存在少数毛羽起始端被视为纱芯, 从而被保留下来的现象; 当α=0.9时, 虽然获得很好的区域一致性, 但是纱芯轮廓的细节部分未能很好的表示; 因此, 本文选取α=0.8的权重因子, 既能分割出完整的纱芯, 同时能保留轮廓的细节部分.

图 8 平滑约束权重α对分割结果的影响 Figure 8 The influence of smoothing constraints weight α on segmentation results

本文将参数核图割法与区域生长法和线性近似纱芯边界法(简称线性法)进行纱芯分割比较, 结果如图 9所示.区域生长法, 即以纱线图像中最大灰度值对应的像素作为种子, 通过自定义门限, 当种子像素与其八邻域之间的绝对灰度差小于门限时, 进行合并, 并以新合并的像素为中心, 直至区域不能进一步扩张后停止.线性法, 即对纱线分割后的纱线二值图像进行行扫描, 定义x%(本文设置x%=55%), 若一行中纱线像素占该行的比例大于等于x%, 则这一行的纱线像素点被保留.为了定量检测算法, 设置误分点来判断是否可以正确分割出纱芯.若一个属于纱芯的像素点被误分为背景或一个属于背景的像素点被误分为纱芯, 都称该像素点被误分类, 本文通过人工视觉统计误分类像素的数目, 同时计算各个算法的处理时间, 统计结果如图 9所示.

图 9 不同纱芯分割算法对比结果 Figure 9 The comparison results of different yarn segmentation algorithm

实验结果表明, 区域生长法能分割出纱芯图像, 但对于不同的图像需要设定不同的门限值, 且受人为设定门限的限制有时并不能生长完全, 导致纱芯分割不完整, 误分点较多.线性法的误分点最多, 分割出的纱芯近似矩形, 对原始灰度图纱芯轮廓的拟合效果差, 且该法需要在纱线分割的基础上进行, 耗时最多.采用参数核图割法进行纱芯分割时效果更好, 且耗时减少, 误分点个数减少, 算法效率有一定提高, 该算法出现误分点的大部分原因在于平滑纱芯上的毛刺, 对之后的毛羽提取步骤是有利的.实验平台为:Window7 Professional Edition, MATLAB R2014a, CPU: Intel i5-2400, RAM: 4GB.

在纱线分割采用相同方法的前提下, 首先对两类样本基于三种纱芯分割方法各随机取50个纱线片段, 其中, 每个纱线片段连续采集52帧图像, 每帧采集的纱线长度为12.24 mm, 则纱线片段的长度为1 003.68 mm, 即每个片段的实际长度近似为1 m.最后进行毛羽提取, 求取的毛羽区域指数结果如图 10所示.对于同一图片, 线性法由于分割出的纱芯最粗, 导致毛羽区域指数HA最小; 区域生长法受自定义门限的限制, 生长不完全, 导致分割的纱芯最细, 毛羽区域指数HA最大; 参数核图割算法进行纱芯分割后求得的毛羽区域指数HA处于两者之间, 且与线性法的差距大, 与区域生长法的差距小.图 10展示的毛羽区域指数测试结果与前文讨论相一致.

图 10 毛羽区域指数测试结果 Figure 10 The test results of hairiness regional index

在纱线分割采用相同方法的前提下, 求取的毛羽长度指数结果如图 11所示.本文计算毛羽长度指数的步骤为:首先, 确定纱芯横向轴线; 然后, 以横向轴线与纱芯上下边缘之间距离的平均值作为纱芯上下边缘基准线; 最后, 以基准线为基础绘制间隔为1 mm的统计线, 计算毛羽与各统计线的交点.虽然纱芯粗细对计算毛羽长度指数没有直接影响, 但是采用不同方法进行纱芯分割对边缘基准线的确定以及毛羽与统计线的交点影响很大.由图 11可知, 线性法的毛羽长度指数最小, 这是由于分割的纱芯宽度比实际宽度大, 导致单根毛羽的长度比实际短.对于区域生长法, 在自定义门限最大限度地实现纱芯完整分割的前提下, 纱芯宽度仍比实际宽度窄小导致单根毛羽的长度比实际长, 获得的毛羽长度指数最大.采用USTER CLASSIMAT 5对两种样本测试, 测试长度为10 000 m, 获得毛羽长度指数范围分别为:5.6~6.6 (样本1) 和4.7~5.6 (样本2), 如图 11中黑色横线所示.由于样本2经过精梳过程, 毛羽长度指数相对样本1较小, 由图 11也可反映出来.由图 11可知, 根据本文算法所获得的毛羽长度指数绝大部分都落在了黑色横线范围内, 证明了本文算法的可行性.同时, 实验证明了毛羽长度指数测试结果与毛羽区域指数测试结果具有很高地一致性.

图 11 毛羽长度指数测试结果 Figure 11 The test results of hairiness length index

图 11进行数据统计, 得到表 2.以USTER CLASSIMAT 5测得的毛羽长度指数范围作为标准, 通过计算样本1和样本2中三种算法落入标准范围内的毛羽长度指数数目与总毛羽长度指数数目的比值求得准确率.由表 2可知, 对于样本1和样本2, 线性法的平均毛羽长度指数HL、毛羽标准差S和毛羽变异系数CVH与另两种算法差异明显且准确率最低, 无法满足毛羽测试需求; 区域生长法的平均毛羽长度指数HL在标准范围内, 效果较好, 但自定义门限使得测试结果不稳定, 准确率不高; 本文算法的平均毛羽长度指数HL处于标准范围的平均值附近, 且准确率远远优于前两者, 高达95.5%, 定量地证明了此算法进行纱线毛羽研究是可行的.

表 2 纱线毛羽特征参数 Table 2 Characteristic parameters of yarn hairiness
参数样本1样本2
线性法区域生长法本文算法USPTM线性法区域生长法本文算法USPTM
HL3.595 66.569 86.062 5412.989 45.583 05.152 437
S0.949 30.507 10.293 3≤50.775 20.442 80.289 1≤5
CVH26.400 77.718 04.838 39525.930 57.932 05.610 881
准确率/%444944.54995.5

表 2中通过本文算法获得的平均毛羽长度指数HL、毛羽标准差S和毛羽变异系数CVH与乌斯特公报2013版进行比较, 判断样本1和样本2的各项毛羽特征参数处于何种水平, 这对改善和调整纱线质量有很大的作用.其中, USPTM表示根据测试值得到的相应的乌斯特公报百分比水平值, 百分比越低, 水平越高.

4 结束语

选取参数核图割法对不同类型的纱线进行纱芯分割, 并与其他两种常用纱芯分割法进行比较.结果显示参数核图割法在时间上、准确率上都远优于另两种方法.图像处理领域提出的毛羽区域指数弥补了毛羽特征分析的不足, 它与毛羽长度指数共同作用, 使得毛羽分布描述更精准.同时, 由图像处理法测出的毛羽特征参数与由电容式电清检测的USTER CLASSIMAT 5装置测出的毛羽特征参数在定性定量上都表现出高度一致性, 说明基于参数核图割法的纱线毛羽研究是可行的.目前, 采用图像处理法评估毛羽还处于起步阶段, 市场上还没有基于图像处理的纱线毛羽分析装置, 因此, 对机器视觉来说最主要的挑战就是开发具有普适性的基于图像处理算法的纱线毛羽自动分析装置.

参考文献
[1] BARELLA A. Yarn hairiness:The influence of twist[J]. Journal of the Textile Institute Proceedings, 1957, 48(4): 268-280. DOI:10.1080/19447015708688167
[2] BARELLA A. Yarn hairiness[J]. Textile Progress, 1983, 13(1): 1-57. DOI:10.1080/00405168308688897
[3] 秦贞俊. 关于纱线毛羽问题的讨论[J]. 棉纺织技术, 2001, 29(3): 5-10.
QIN Zhenjun. The discussion about the yarn hairiness[J]. Cotton Textile Technology, 2001, 29(3): 5-10.
[4] HALEEM N, WANG X. A comparative study on yarn hairiness results from manual test and two commercial hairiness metres[J]. Journal of the Textile Institute, 2013, 104(5): 494-501. DOI:10.1080/00405000.2012.745235
[5] HALEEM N, WANG X. Recent research and developments on yarn hairiness[J]. Textile Research Journal, 2015, 85(2): 211-224. DOI:10.1177/0040517514538692
[6] PILLAY K P R. A study of yarn hairiness in cotton yarns:part I.Effect of fibre and yarn factors[J]. Textile Research Journal, 1964, 34(9): 663-674.
[7] Zweigle Uster. Handbook of Uster Zweigle HL400[M]. Uster: Uster Technologies AG, 2014.
[8] Uster. Handbook of Uster Tester 5[M]. Uster: Uster Technologies AG, 2005.
[9] GUHA A, AMARNATH C, PATERIA S, et al. Measurement of yarn hairiness by digital image processing[J]. The Journal of The Textile Institute, 2010, 101(3): 214-222. DOI:10.1080/00405000802346412
[10] CARVALHO V, SOARES F, VASCONCELOS R, et al.Yarn hairiness determination using image processing techniques[C]//Emerging Technologies & Factory Automation (ETFA), 2011 IEEE 16th Conference on.IEEE, 2011:1-4.
[11] FABIJANSKA A, JACKOWSKA-STRUMⅢ O L. Image processing and analysis algorithms for yarn hairiness determination[J]. Machine Vision and Applications, 2012, 23(3): 527-540. DOI:10.1007/s00138-012-0411-y
[12] 孙银银, 潘如如, 高卫东. 基于数字图像处理的纱线毛羽检测[J]. 纺织学报, 2013, 34(6): 102-106.
SUN Yinyin, PAN Ruru, GAO Weidong. Detection of yarn hairiness base on digital image processing[J]. Journal of Textile Science, 2013, 34(6): 102-106.
[13] 陈方昕. 基于区域生长法的图像分割技术[J]. 科技信息, 2008(15): 58-59.
CHEN Fangxi. Image segmentation based on region growing method[J]. Science and Technology Information, 2008(15): 58-59. DOI:10.3969/j.issn.1001-8972.2008.15.029
[14] 兰瑜洁, 钟舜聪. 基于区域生长法的自适应图像分割的网眼织物瑕疵检测[J]. 机电工程, 2015, 32(11): 1513-1518.
LAN Yujie, ZHONG Shuncong. Defect detection of eyelet fabric using adaptive image segmentation based on region growing method[J]. Mechanical and Electrical Engineering, 2015, 32(11): 1513-1518.
[15] MANJUNATH ARADHYA V N, HEMANTHA KUMAR G, SHIVAKUMARA P. Skew detection technique for binary document images based on Hough transform[J]. International Journal of Information Technology, 2006, 3(3): 194.
[16] OTSU N. A threshold selection method from gray-level histograms[J]. Automatica, 1975, 11(285-296): 23-27.
[17] SALAH M B, MITICHE A, AYED I B. Multiregion image segmentation by parametric kernel graph cuts[J]. IEEE Transactions on Image Processing, 2011, 20(2): 545-557. DOI:10.1109/TIP.2010.2066982
[18] 崔威威, 田铮, 赵伟. 图像分割的自适应交互核图割模型[J]. 计算机工程与应用, 2013, 49(5): 190-194.
CUI Weiwei, TIAN Zheng, ZHAO Wei. Self-adaptive interactive kernel graph cut model for image segmentation[J]. Computer Engineering and Applications, 2013, 49(5): 190-194.
[19] BOYKOV Y Y, JOLLY M P.Interactive graph cuts for optimal boundary & region segmentation of objects in ND images[C]//Proceedings of Eighth IEEE International Conference on.IEEE, 2001, 1:105-112.
[20] BOYKOV Y, VEKSLER O, ZABIH R. Fast approximate energy minimization via graph cuts[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2001, 23(11): 1222-1239. DOI:10.1109/34.969114
[21] SALAH M B, MITICHE A, AYED I B.A continuous labeling for multiphase graph cut image partitioning[C]//International Symposium on Visual Computing.Springer Berlin Heidelberg, 2008:268-277.
[22] VEKSLER O.Efficient graph-based energy minimization methods in computer vision[D].Cornell University, 1999.
[23] DHILLON I S, GUAN Y, KULIS B. Weighted graph cuts without eigenvectors a multilevel approach[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007, 29(11): 1944-1957. DOI:10.1109/TPAMI.2007.1115
[24] BOYKOV Y, FUNKA-LEA G. Graph cuts and efficient ND image segmentation[J]. International Journal of Computer Vision, 2006, 70(2): 109-131. DOI:10.1007/s11263-006-7934-5
[25] Uster. Uster Statistics Application Handbook[M]. Uster: Uster Technologies AG, 2013.
西安工程大学主办。
0

文章信息

苏泽斌, 黄梦莹, 景军锋
SU Zebin, HUANG Mengying, JING Junfeng
基于参数核图割的纱线毛羽图像处理方法
Image processing of yarn hairiness based on parametric kernel graph cut method
西安工程大学学报, 2017, 31(4): 486-494, 501
Journal of Xi′an Polytechnic University, 2017, 31(4): 486-494, 501

文章历史

收稿日期: 2017-03-28

相关文章

工作空间