上学期,我们对十二个“一”进行了大量实验,还进行多种形式的拓展创作。
本专题将从多种角度去探讨上述问题,其实就是将本实例与多个学科关联起来,包括:书法理论:什么是笔法?心理学:实验设计方法。数学:概率统计:统计特征、中心极限定律与正态分布、假设检验、方差分析。线性代数:线性空间、变换、矩阵的意义、SVD分解、主成分分析
一、书法
书法是中国特有的一种传统艺术。中国汉字是劳动人民创造的,开始以图画记事,经过几千年的发展,演变成了当今的文字,又因祖先发明了用毛笔书写,便产生了书法,古往今来,均以毛笔书写汉字为主,至于其他书写形式,如硬笔、指书等,其书写规律与毛笔字相比,并非迥然不同,而是基本相通。
狭义而言,书法是指用毛笔书写汉字的方法和规律。包括执笔、运笔、点画、结构、布局(分布、行次、章法)等内容。例如,执笔指实掌虚,五指齐力;运笔中锋铺毫;点画意到笔随,润峭相同;结构以字立形,相安呼应;分布错综复杂,疏密得宜,虚实相生,全章贯气;款识字古款今,字大款小,宁高勿低等。
书法的内涵主要包括以下几个方面的内容:
1、书法是指以文房四宝为工具抒发情感的一门艺术。工具的特殊性是书法艺术特殊性的一个重要方面。借助文房四宝为工具,充分体现工具的性能,是书法技法的重要组成部分。离开文房四宝,书法艺术便无从谈起。
2、书法艺术以汉字为载体。汉字的特殊性是书法特殊性的另一个重要方面。中国书法离不开汉字,汉字点画的形态、偏旁的搭配都是书写者较为关注的内容。与其他拼音文字不同,汉字是形、音、义的结合体,形式意味很强。
古人所谓“六书”,是指象形、指事、会意、形声、转注、假借六种有关汉字造字和用字的方法,它对汉字形体结构的分析极具指导意义。
3、书法艺术的背景是中国传统文化。书法植根于中国传统文化土壤,传统文化是书法赖以生存、发展的背景。我们今天能够看到的汉代以来的书法理论,具有自己的系统性、完整性与条理性。与其他文艺理论一样,书法理论既包括书法本身的技法理论,又包含其美学理论,而在这些理论中又无不闪耀着中国古代文人的智慧光芒。比如关于书法中如何表现“神、气、骨、肉、血”等范畴的理论,关于笔法、字法、章法等技法的理论以及创作论、品评论等等,都是有着自身的体系的。
4、书法艺术本体包括笔法、字法、构法、章法、墨法、笔势等内容。书法笔法是其技法的核心内容。笔法也称“用笔”,指运笔用锋的方法。字法,也称“结字”、“结构”,指字内点画的搭配、穿插、呼应、避就等等关系。章法,也称“布白”,指一幅字的整体布局,包括字间关系、行间关系的处理。墨法,是用墨之法,指墨的浓、淡、干、枯、湿的处理
近些年来,随着人们对其艺术魅力的深入了解,书法受到了社会的广泛重视。
无论国内还是国外,越来越多的人开始接触、学习并研究中国书法。
在书法课上,老师教授学生执笔、运笔、点画、结构、布局等内容,如“永字八法"中涉及的八种基本笔画技巧。学生在学习书法的过程中,一般从选择其个书法名家的作品进行临摹。
————————————————
本篇文章拟采用数据可视化形式将机械冰冷的数字表现的更加生动直观,并将书法这一艺术形式与PCA算法进行结合,采用艺工交叉的思想展示受试者对于十二个“一”的审美感受,分析多种审美维度上的相关性,并结合不同书法艺术家的生平试分析其艺术风格与生平是否有联系等。
二、实验设计方法
利用Python、matlab、processing来进行数据分析及可视化。利用PCA降维的方法,进行二维平面上的数据可视化,来寻找“十二个一”中一些特征之间的关系,以分析结果结合笔势作出研究。最后对十二个“一”进行一定的图像处理,将处理后的图像进行类似的对比分析。
书法家分别为1蔡襄、2褚遂良、3黄庭坚、4柳公权、5米芾、6姚孟起临摹 欧阳询、7宋徽宗、8苏轼、9王羲之、10颜真卿、11赵孟頫、12钟繇
可供选取的特征维度有
大五人格
1.神经质性
2.开放性
3.责任心
4.外倾性
5.宜人性
情感
1.快乐 2.激活程度 3.愤怒 4.厌恶 5.恐惧 6.高兴 7.悲伤 8.惊讶
风格
1.劲健”程度(劲健意为强健有力) 2.“拙朴”程度(拙朴意为质朴,直率) 3.怪奇 4.姿媚 5.险峭 6.紧结 7.圆融 8.倔强 9.“高古”程度(高古意为高雅古朴) 10.宽博 11.“颇骏”程度(颇骏意为欹斜倾侧,骨力追风) 12.飘逸 13.沉重 14.创造性 15.阴性:温柔,月亮,地,雌性,冷,偶数, 16.抒情性
社会主义核心价值观匹配
1.富强 2.文明 3.和谐 4.自由 5.法制 6.友善
三、数学
降维是机器学习中很重要的一种思想。在机器学习中经常会碰到一些高维的数据集,而在高维数据情形下会出现数据样本稀疏,距离计算等困难,这类问题是所有机器学习方法共同面临的严重问题,称之为“ 维度灾难 ”。另外在高维特征中容易出现特征之间的线性相关,这也就意味着有的特征是冗余存在的。基于这些问题,降维思想就出现了。
1、奇异值分解(SVD)
为什么先介绍SVD算法,因为在后面的PCA算法的实现用到了SVD算法。SVD算法不光可以用于降维算法中的特征分解,还可以用于推荐系统,以及自然语言处理等领域。是很多机器学习算法的基石。
在线性代数中我们学过矩阵(在这里的矩阵必须是n×nn×n的方阵)的特征分解,矩阵A和特征值、特征向量之间的关系如下
将A矩阵做特征分解,特征向量QQ是一组正交向量,具体表达式如下
在这里因为QQ中nn个特征向量为标准正交基,满足QT=Q−1QT=Q−1,也就是说QQ为酉矩阵。
矩阵的特征值分解的局限性比较大,要求矩阵A必须是方阵(即行和列必须相等的矩阵),那么对于一般的矩阵该如何做分解?
奇异值分解就可以处理这些一般性的矩阵,假设现在矩阵A是一个m×nm×n的矩阵,我们可以将它的奇异值分解写成下面的形式
在这里UU是m×mm×m的矩阵,ΣΣ是m×nm×n的矩阵(除对角线上的值,其余的值全为0),VV是n×nn×n的矩阵。在这里矩阵UU和VV都是酉矩阵,也就是说满足UTU=IUTU=I,VTV=IVTV=I(其中II为单位矩阵)。对于SVD的定义如下图
矩阵ATAATA是一个n×nn×n的方阵,我们对该方阵做特征值分解,可以得到下面的表达式
我们将这里得到的向量vivi称为右奇异向量。通过该值我们可以得到uiui(左奇异向量,方阵U中的向量)和σiσi(矩阵ΣΣ中对角线上的值,也就是我们的奇异值)
对于奇异值,它跟我们特征分解中的特征值相似,在奇异值矩阵ΣΣ中也是按照从大到小排列的,而且奇异值减小的特别快。在很多情况下,前10%甚至前1%的奇异值的和就占总和的99%以上的比例。也就是说我们可以用最大的K个奇异值和对应的左右奇异向量来近似的描述矩阵,如下图所示
具体表达式如下
Am×n=Um×mΣm×nVTn×n≈Um×kΣk×kVTk×nAm×n=Um×mΣm×nVn×nT≈Um×kΣk×kVk×nT
在并行化计算下,奇异值分解是非常快的。但是奇异值分解出的矩阵解释性不强,有点黑盒子的感觉,不过还是在很多领域有着使用。
2.数据降维——PCA介绍:
在实际生产生活中,我们所获得的数据集在特征上往往具有很高的维度,对高维度的数据进行处理时消耗的时间很大,并且过多的特征变量也会妨碍查找规律的建立。如何在最大程度上保留数据集的信息量的前提下进行数据维度的降低,是我们需要解决的问题。
对数据进行降维有以下优点:
(1)使得数据集更易使用
(2)降低很多算法的计算开销
(3)去除噪声
(4)使得结果易懂
降维技术作为数据预处理的一部分,即可使用在监督学习中也能够使用在非监督学习中。而降维技术主要有以下几种:主成分分析(Principal Component Analysis,PCA)、因子分析(Factor Analysis),以及独立成分分析(Independent Component Analysis, ICA)。其中主成分分析PCA应用最为广泛。
PCA(Principal Component Analysis),即主成分分析方法,是一种使用最广泛的数据降维算法。PCA的主要思想是将n维特征映射到k维上,这k维是全新的正交特征也被称为主成分,是在原有n维特征的基础上重新构造出来的k维特征。PCA的工作就是从原始的空间中顺序地找一组相互正交的坐标轴,新的坐标轴的选择与数据本身是密切相关的。其中,第一个新坐标轴选择是原始数据中方差最大的方向,第二个新坐标轴选取是与第一个坐标轴正交的平面中使得方差最大的,第三个轴是与第1,2个轴正交的平面中方差最大的。依次类推,可以得到n个这样的坐标轴。通过这种方式获得的新的坐标轴,我们发现,大部分方差都包含在前面k个坐标轴中,后面的坐标轴所含的方差几乎为0。于是,我们可以忽略余下的坐标轴,只保留前面k个含有绝大部分方差的坐标轴。事实上,这相当于只保留包含绝大部分方差的维度特征,而忽略包含方差几乎为0的特征维度,实现对数据特征的降维处理。
网友评论