Cảm xúc trong tiếng nói và phân tích thống kê ngữ liệu cảm xúc tiếng Việt

Tiếng nói ngày càng được sử dụng rộng rãi trong giao tiếp giữa người và máy. Việc trao đổi thông tin tiếng nói cũng chuyển từ việc phải sử dụng các cấu trúc chặt chẽ sang dùng các cách thức giao tiếp linh hoạt hơn, điều này giúp cho ứng dụng tiếng nói được phổ biến đến người dùng phổ thông một cách dễ dàng hơn.

Cảm xúc trong tiếng nói và phân tích thống kê ngữ liệu cảm xúc tiếng Việt trang 1

Trang 1

Cảm xúc trong tiếng nói và phân tích thống kê ngữ liệu cảm xúc tiếng Việt trang 2

Trang 2

Cảm xúc trong tiếng nói và phân tích thống kê ngữ liệu cảm xúc tiếng Việt trang 3

Trang 3

Cảm xúc trong tiếng nói và phân tích thống kê ngữ liệu cảm xúc tiếng Việt trang 4

Trang 4

Cảm xúc trong tiếng nói và phân tích thống kê ngữ liệu cảm xúc tiếng Việt trang 5

Trang 5

Cảm xúc trong tiếng nói và phân tích thống kê ngữ liệu cảm xúc tiếng Việt trang 6

Trang 6

Cảm xúc trong tiếng nói và phân tích thống kê ngữ liệu cảm xúc tiếng Việt trang 7

Trang 7

Cảm xúc trong tiếng nói và phân tích thống kê ngữ liệu cảm xúc tiếng Việt trang 8

Trang 8

Cảm xúc trong tiếng nói và phân tích thống kê ngữ liệu cảm xúc tiếng Việt trang 9

Trang 9

Cảm xúc trong tiếng nói và phân tích thống kê ngữ liệu cảm xúc tiếng Việt trang 10

Trang 10

Tải về để xem bản đầy đủ

pdf 13 trang Danh Thịnh 10/01/2024 2320
Bạn đang xem 10 trang mẫu của tài liệu "Cảm xúc trong tiếng nói và phân tích thống kê ngữ liệu cảm xúc tiếng Việt", để tải tài liệu gốc về máy hãy click vào nút Download ở trên

Tóm tắt nội dung tài liệu: Cảm xúc trong tiếng nói và phân tích thống kê ngữ liệu cảm xúc tiếng Việt

Cảm xúc trong tiếng nói và phân tích thống kê ngữ liệu cảm xúc tiếng Việt
Các công trình nghiên cứu, phát triển và ứng dụng CNTT-TT Tập V-1, Số 15 (35), tháng 6/2016 
-86- 
Cảm xúc trong tiếng nói và phân tích thống kê 
ngữ liệu cảm xúc tiếng Việt 
Speech Emotions and Statistical Analysis for Vietnamese Emotion 
Corpus 
Lê Xuân Thành, Đào Thị Lệ Thủy, Trịnh Văn Loan, Nguyễn Hồng Quang
Abstract: Research on emotional speech has been 
carried out for many languages over the world and for 
Vietnamese, there was a beginning. This paper 
describes some research results on main features of 
four basic emotions: happiness, sadness, anger and 
neutrality. Our preliminary research on emotions of 
Vietnamese shows that in general anger and happiness 
correspond to speech energy and fundamental 
frequency higher than the one of neutral emotion, the 
sad emotion has the lowest values for energy and 
fundamental frequency. These comments come from 
the statistical methods such as analysis of variance 
(ANOVA) and Tukey’s test applied for our Vietnamese 
emotion corpus. The classifiers SMO, lBk, trees J48 
have been used for preliminary identification of 
emotions based on BKEmo corpus. The highest 
recognition rate is 98.17% for the classifier lBk using 
384 feature parameters and this rate decreases to 
82.59% for the case using only 48 parameters relating 
to the F0 and intensity. 
Keywords: Speech, emotions, Vietnamese, corpus, 
ANOVA, Tukey’s test, fundamental frequency, speech 
energy, recognition, SMO, lBk, trees J48. 
I. GIỚI THIỆU 
Tiếng nói ngày càng được sử dụng rộng rãi trong 
giao tiếp giữa người và máy. Việc trao đổi thông tin 
tiếng nói cũng chuyển từ việc phải sử dụng các cấu 
trúc chặt chẽ sang dùng các cách thức giao tiếp linh 
hoạt hơn, điều này giúp cho ứng dụng tiếng nói được 
phổ biến đến người dùng phổ thông một cách dễ dàng 
hơn. Sự linh hoạt này không chỉ thể hiện ở việc sử 
dụng các cấu trúc câu lệnh linh hoạt mà còn hướng tới 
thể hiện ở các cung bậc cảm xúc khác nhau trong giao 
tiếp người máy. Để làm được điều này, các hệ thống 
tương tác người máy cần được trang bị thêm các tính 
năng mới. Các tính năng này bao gồm việc phân tích 
nội dụng của dữ liệu tiếng nói nhận được để lấy ra các 
thông tin như: cảm xúc trong câu lệnh, nội dung câu 
lệnh rồi đưa ra các phản hồi với nội dung và cảm xúc 
phù hợp. Chính vì vậy nghiên cứu về cảm xúc trong 
tiếng nói trở nên rất quan trọng trong lĩnh vực tương 
tác người máy. 
Hiện nay, các nghiên cứu về tiếng nói tiếng Việt 
với giọng trần thuật (bình thường) đã có nhiều kết quả 
rất tốt. Trong khi đó các nghiên cứu về phương diện 
cảm xúc trong tổng hợp hay nhận dạng tiếng Việt chưa 
nhiều. Một số nghiên cứu về cảm xúc tiếng Việt đã 
được công bố thường được thực hiện trên ngữ liệu đa 
thể thức, kết hợp video biểu hiện khuôn mặt, cử chỉ và 
tiếng nói với ứng dụng chủ yếu để tổng hợp tiếng Việt. 
Chẳng hạn nghiên cứu trong [23], [24] đã thử nghiệm 
mô hình hóa ngôn điệu tiếng Việt với ngữ liệu đa thể 
thức nhằm tổng hợp tiếng Việt biểu cảm. Các tác giả 
của [20] đã đề xuất mô hình biến đổi tiếng Việt nói để 
tạo biểu cảm trong kênh tiếng nói cho nhân vật ảo nói 
tiếng Việt. Trong nghiên cứu này, ngữ liệu có cảm xúc 
bao gồm các phát âm tiếng Việt của một nghệ sĩ nam 
và một nghệ sĩ nữ phát âm 19 câu ở năm trạng thái cơ 
bản: tự nhiên, vui, buồn, hơi giận, rất giận. Đối với 
nhận dạng cảm xúc tiếng Việt, nghiên cứu [21] đã sử 
dụng SVM (Support Vector Machines) để phân lớp 
với đầu vào là tín hiệu điện não (EEG). Kết quả cho 
thấy có thể nhận dạng được trên thời gian thực 5 trạng 
Các công trình nghiên cứu, phát triển và ứng dụng CNTT-TT Tập V-1, Số 15 (35), tháng 6/2016 
-87- 
thái cảm xúc cơ bản với độ chính xác trung bình là 
70,5%. Một số tác giả Trung Quốc [28], [29] có kết 
hợp với sinh viên Việt Nam xây dựng ngữ liệu cảm 
xúc tiếng Việt theo cách đóng kịch biểu lộ cảm xúc. 
Người nói là các sinh viên Việt Nam, trong nghiên cứu 
[28] có 2 nam, 2 nữ, còn trong [29] có 6 người nói với 
6 cảm xúc vui, bình thường, buồn, ngạc nhiên, tức 
giận, sợ hãi. Các tác giả ban đầu đã xây dựng ngữ liệu 
với ý định nghiên cứu chéo ngôn ngữ Việt Nam và 
Trung Quốc. Các tham số của ngữ liệu được phân tích 
phục vụ nhận dạng cảm xúc bao gồm cao độ (pitch), 
các formant F1, F2, F3 và năng lượng tín hiệu. GMM 
(Gaussian Mixture Model) đã được sủ dụng trong [28] 
còn MRF (Markov Random Fields) được sử dụng 
trong [29] để nhận dạng cảm xúc. 
Những tham số cơ bản nhất để phân biệt các cảm 
xúc bao gồm tần số cơ bản F0, năng lượng tiếng nói 
[7]. Sự phân biệt này có thể được xác minh thông qua 
cách sử dụng các phương pháp phân tích và kiểm định 
giả thuyết thống kê. Bài báo này sẽ trình bày về kết 
quả nghiên cứu sử dụng phương pháp phân tích 
ANOVA và kiểm định T để giới thiệu phần thử 
nghiệm phân lớp cảm xúc. 
Nội dung tiếp theo của bài báo gồm các phần sau: 
Phần II trình bày về các tham số cơ bản đặc trưng cho 
cảm xúc trong tiếng nói; Phần III mô tả phương pháp 
xây dựng ngữ liệu tiếng Việt có cảm xúc; Phần IV sử 
dụng phương pháp phân tích phương sai ANOVA và 
kiểm định T để đưa ra kết quả phân tích thống kê sự 
khác biệt của các cảm xúc theo tần số cơ bản F0 và 
năng lượng tiếng nói; Phần V trình bày kết quả thử 
nghiệm nhận dạng cảm xúc tiếng Việt; Phần VI tổng 
kết và định hướng nghiên cứu tiếp theo. 
II. CÁC THAM SỐ VỀ CẢM XÚC TRONG 
TIẾNG NÓI 
Trong giao tiếp thông thường giữa người với 
người, ngoài nội dung của thông điệp trao đổi thì 
người nghe cũng thu được rất nhiều thông tin thông 
qua các cảm xúc của người nói lúc đó. Vì vậy, trong 
giao tiếp người máy cần phát triển các hệ thống tiếng 
nói có thể xử lý các cảm xúc kèm theo nội dung cần 
truyền tải. Các mục tiêu cơ bản của hệ thống xử lý 
tiếng nói có cảm xúc là nhận dạng cảm xúc thể hiện 
trong tiếng nói và tổng hợp cảm xúc mong muốn trong 
tiếng nói để truyền tải ý định nội dung. Từ góc độ kỹ 
thuật, để làm được điều này, cần phải tìm được cá ... IỆT 
Với bộ ngữ liệu cảm xúc tiếng Việt BKEmo, các 
bộ phân lớp SMO, lBk, trees J48 đã được thử nghiệm 
để nhận dạng cảm xúc. Các bộ phân lớp này thuộc 
công cụ Weka gồm tập hợp các thuật giải học máy 
dùng cho khai phá dữ liệu do Đại học Waikato, 
NewZealand phát triển [34]. SMO (Sequential 
Minimal Optimization) [32] là thuật giải tối ưu hóa 
cực tiểu lần lượt để huấn luyện bộ phân lớp hỗ trợ véc-
tơ dùng kernel đa thức hoặc Gauss. lBk là bộ phân lớp 
k láng giềng gần nhất sử dụng độ đo khoảng cách Ơclit 
[34]. Bộ phân lớp trees J48 [33] được dùng để có các 
luật từ các cây quyết định riêng phần đã được xây 
dựng bằng cách sử dụng J48. J48 là cài đặt mã nguồn 
mở Java của thuật giải C4.5 và thuật giải này được 
dùng để tạo cây quyết định do Ross Quinlan phát triển 
Ngữ liệu dùng cho thử nghiệm gồm 5584 file tương 
ứng với 4 cảm xúc được 16 nghệ sĩ (8 giọng nam và 8 
giọng nữ) thể hiện. Số file này được chia làm 2 phần 
bằng nhau, một phần dùng để huấn luyện và phần còn 
lại dùng cho nhận dạng. Thử nghiệm nhận dạng được 
thực hiện theo phương pháp đánh giá chéo (cross-
validation). Bộ tham số đặc trưng được trích rút nhờ 
công cụ OpenSMILE [35] với 384 tham số bao gồm: 
năng lượng, MFCC, tỉ lệ biến thiên qua trục không, 
tần số cơ bản F0, xác suất xuất hiện âm hữu thanh. 
Các tham số này lại được đánh giá theo giá trị cực đại, 
cực tiểu, vị trí xuất hiện cực đại, vị trí xuất hiện cực 
tiểu, dải giá trị, giá trị trung bình, độ lệch chuẩn, độ 
lệch phổ so với tần số trung bình (Skewness), độ khác 
biệt phổ quanh tâm phổ so với phân bố Gauss 
(Kurtosis). 
Bảng 7. Ma trận nhầm lẫn nhận dạng cảm xúc với 
384 tham số 
Bộ phân lớp Tức Vui BT Buồn 
SMO 
Tức 1341 51 4 0 
Vui 41 1342 13 0 
BT 4 8 1300 84 
Buồn 3 11 75 1307 
lBk 
Tức 1383 9 2 2 
Vui 13 1380 1 2 
BT 0 0 1367 29 
Buồn 0 1 43 1352 
Trees 
J48 
Tức 1084 225 62 25 
Vui 216 1103 54 23 
BT 61 58 1128 149 
Buồn 19 25 164 1188 
Bảng 7 là ma trận nhầm lẫn nhận dạng cảm xúc 
dùng bộ 384 tham số còn Bảng 8 là ma trận nhầm lẫn 
nhận dạng cảm xúc chỉ dùng các tham số liên quan 
đến F0 và năng lượng. Kết quả trên cả hai bảng đều 
dùng các bộ phân lớp SMO, lBk, trees J48. Bảng 7 cho 
thấy tỉ lệ nhận dạng đúng trung bình cao nhất cho cả 4 
Các công trình nghiên cứu, phát triển và ứng dụng CNTT-TT Tập V-1, Số 15 (35), tháng 6/2016 
-96- 
cảm xúc đạt 98,17% với bộ phân lớp lBk còn tỉ lệ 
nhận dạng đúng trung bình thấp nhất là 80,64% với bộ 
phân lớp trees J48. Đối với Bảng 8, khi số tham số 
giảm xuống chỉ còn 48 tham số liên quan đến F0 và 
năng lượng, tỉ lệ nhận dạng đúng đều giảm so với 
Bảng 7 tuy nhiên vẫn giữ quy luật tỉ lệ nhận dạng 
đúng cao nhất cho bộ phân lớp lBk và thấp nhất cho 
bộ phân lớp trees J48. Trường hợp chỉ sử dụng các 
tham số liên quan đến F0 và năng lượng, tỉ lệ nhận 
dạng đúng trung bình cao nhất giảm xuống còn 
82,59% và tỉ lệ nhận dạng đúng trung bình thấp nhất 
giảm xuống còn 75,25%. Nhìn chung, các kết quả này 
đều khả quan so với một số kết quả nhận dạng cảm 
xúc tiếng Việt đã được công bố [28], [29] hoặc kết quả 
nhận dạng cảm xúc của một số ngôn ngữ khác [36-39]. 
Bảng 8. Ma trận nhầm lẫn nhận dạng cảm xúc với 48 
tham số liên quan đến F0 và năng lượng 
Bộ phân lớp Tức Vui BT Buồn 
SMO 
Tức 1144 178 53 21 
Vui 182 1103 100 11 
BT 31 99 903 363 
Buồn 14 33 156 1193 
lBk 
Tức 1186 144 45 21 
Vui 139 1174 63 20 
BT 30 50 1093 223 
Buồn 21 13 203 1159 
trees 
J48 
Tức 1084 218 70 24 
Vui 227 1052 99 18 
BT 77 92 969 258 
Buồn 17 33 249 1097 
VI. KẾT LUẬN VÀ HƢỚNG PHÁT TRIỂN 
Trong bài báo này, các tham số cơ bản của các cảm 
xúc, việc xây dựng ngữ liệu cảm xúc cho tiếng Việt, 
sử dụng phân tích phương sai ANOVA và kiểm định T 
để đánh giá sự biến thiên F0 và năng lượng trung bình 
giữa các cảm xúc đã được trình bày. Kết quả phân tích 
cho thấy tần số cơ bản F0 là một tham số đáng tin cậy 
để phân biệt giữa các cảm xúc. Năng lượng cũng là 
một tham số hiệu quả về phân biệt cảm xúc, phản ánh 
rõ nét trên nam giới hơn so với trên nữ giới. Trong số 
các bộ phân lớp được sử dụng để thử nghiệm bước đầu 
nhận dạng cảm xúc theo bộ ngữ liệu BKEmo, bộ phân 
lớp lBK cho kết quả nhận dạng tốt nhất. Hướng nghiên 
cứu tiếp theo của chúng tôi là tập trung vào phân tích 
ảnh hưởng đến cảm xúc của các tham số như trường 
độ, tốc độ nói cũng như một số tham số khác liên quan 
đến nguồn âm và tiến hành nhận dạng cảm xúc tiếng 
Việt dùng các mô hình nhận dạng khác nhau sử dụng 
ngữ liệu đã được xây dựng. Bên cạnh đó sẽ mở rộng 
nghiên cứu cho các hình thái cảm xúc đa dạng hơn. 
LỜI CẢM ƠN 
Bài báo này được thực hiện trong khuôn khổ đề tài 
nghiên cứu “Xây dựng bộ ngữ liệu cảm xúc tiếng 
Việt” của Trường Đại học Bách khoa Hà Nội. Các tác 
giả chân thành cảm ơn Trường Đại học Bách khoa Hà 
Nội, Phòng Khoa học Công nghệ, Viện Công nghệ 
Thông tin và Truyền thông đã hỗ trợ để chúng tôi có 
thể thực hiện thành công đề tài. 
TÀI LIỆU THAM KHẢO 
[1] RODDY COWIE, MARC SCHRÖDER, “Piecing 
together the emotion jigsaw”, Workshop on Machine 
Learning for Multimodal Interaction (MLMI04), 
Martigny, Switzerland, June 21-23, 2004. 
[2] MARIA SCHUBIGER, “English intonation: its form and 
function”. Language Vol. 36, No. 4, 1960, pp. 544-548. 
[3] KLAUS. R. SCHERER, “Vocal communication of 
emotion: A review of research paradigms”, Speech 
Communication, vol. 40, 2003, pp. 227–256. 
[4] JANET CAHN, “The generation of affect in synthesized 
speech”. Journal of American Voice Input/Output Society, 
vol. 8, 1990, pp. 1–19. 
[5] CARL E. WILLIAMS, KENNETH N. STEVENS, 
“Emotions and speech: Some acoustical correlates”. The 
Journal of the Acoustical Society of America Vol. 52 (4), 
1972, pp. 1238-1250. 
[6] FELIX BURKHARDT, WALTER F. SENDLMEIER, 
“Verification of acoustical correlates of emotional speech 
using formant-synthesis”. In Proceedings of the ISCA 
Workshop on Speech and Emotion, Newcastle, Northern 
Ireland, UK, 2000. 
[7] SYLVIE MOZZICONACCI, DIK J. HERMES, “Role of 
intonation patterns in conveying emotion in speech”. In 
Proceedings of ICPhS 1999 , San Francisco 1999, pp. 
2001-2004. 
[8] JANET E. CAHN, “Generating expression in synthesized 
speech”, Master's Thesis, Massachusetts Institute of 
Technology, May 1989. 
Các công trình nghiên cứu, phát triển và ứng dụng CNTT-TT Tập V-1, Số 15 (35), tháng 6/2016 
-97- 
[9] JEAN VROOMEN, RENÉ COLLIER, SYLVIE 
MOZZICONACCI, "Duration and intonation in 
emotional speech”, Proceedings of the Third European 
Conference on Speech Communication and Technology, 
Berlin, Germany, September 21-23, 1993. 
[10] DEEPA P. GOPINATH, SHEEBA P.S, 
ACHUTHSANKAR S. NAIR, “Emotional Analysis for 
Malayalam Text to Speech Synthesis Systems”, 
Proceedings of the Setit 2007 - 4th International 
Conference: Sciences of Electronic, Technologies of 
Information and Telecommunications, Tunisia, March 25-
29, 2007. 
[11] TSANG-LONG PAO, YU-TE CHEN, JUN-HENG YEH, 
WEN_YUAN LIAO, “Combining acoustic features for 
improved emotion recognition in mandarin speech”, in 
ACII (Affective Computing and Intelligent Interaction), 
Beijing, China, October 22-24, 2005. 
[12] FRANK DELLERT, THOMAS POLZIN, ALEX 
WAIBEL, “Recognising emotions in speech”, ICSLP 96, 
Philadelphia, USA, Oct 03-06, 1996. 
[13] IAIN R. MURRAY, JOHN L. ARNOTT, ELIZABETH 
A. ROHWER, “Emotional stress in synthetic speech: 
Progress and future directions”, Speech Communication, 
vol. 20, Nov 1996, pp. 85-91. 
[14] SINÉAD MCGILLOWAY, RODDY COWIE, ELLEN 
DOUGLAS-COWIE, STAN GIELEN, MACHIEL 
WESTERDIJK, SYBERT STROEVE “Approaching 
automatic recognition of emotion from voice: A rough 
benchmark”, Proceedings of the ISCA Workshop on 
Speech and Emotion, Newcastle, Northern Ireland, UK, 
Sep 5-9, 2000. 
[15] JAY L. DEVORE, “Probability and Statistics for 
Engineering and the Sciences”, Eighth Edition, 
Brooks/Cole Edition, 2010. 
[16] YIXIONG PAN, PEIPEI SHEN, LIPING SHEN, 
“Speech Emotion Recognition Using Support Vector 
Machine”, International Journal of Smart Home Vol. 6, 
No. 2, April, 2012, pp 101-108. 
[17] R. SUBHASHREE1, G. N. RATHNA, “Speech Emotion 
Recognition: Performance Analysis based on Fused 
Algorithms and GMM Modelling”, Indian Journal of 
Science and Technology, Vol 9(11), March 2016, pp. 1-8. 
[18] H. MIWA, T. UMETSU, A. TAKANISHI, H. 
TAKANOBU, “Robot personalization based on the 
mental dynamics”, IEEE/RSJ Conference on Intelligent 
Robots and Systems, vol 1, Takamatsu, Oct 31-Nov 5, 
2000. 
[19] KUN HAN, DONG YU, IVAN TASHEV, “Speech 
Emotion Recognition Using Deep Neural Network and 
Extreme Learning Machine”, INTERSPEECH 2014, 
Singapore, September 14-18, 2014 
[20] THI DUYEN NGO, THE DUY BUI, “A study on 
prosody of Vietnamese emotional speech”, Proceedings of 
the Fourth International Conference on Knowledge and 
Systems Engineering (KSE 2012), IEEE, Danang city, 
Vietnam, Aug 17-19, 2012 
[21] VIET HOANG ANH, MANH NGO VAN, BANG BAN 
HA, THANG HUYNH QUYET, “A real-time model 
based Support Vector Machine for emotion recognition 
through EEG”, International Conference on Control, 
Automation and Information Sciences (ICCAIS), Ho Chi 
Minh city, Vietnam, Nov 26-29, 2012. 
[22] JOHANNES PITTERMANN, ANGELA 
PITTERMANN, WOLFGANG MINKER, “Handling 
Emotions in Human-Computer Dialogues”, Springer, 
2010. 
[23] DANG-KHOA_MAC, ERIC CASTELLI, VÉRONIQUE 
AUBERGÉ, “Modeling the Prosody of Vietnamese 
Attitudes for Expressive Speech Synthesis”, Workshop of 
Spoken Languages Technologies for Under-resourced 
Languages (SLTU 2012), Cape Town, South Africa, May 
7-9, 2012. 
[24] DANG-KHOA MAC, DO-DAT TRAN, “Modeling 
Vietnamese Speech Prosody: A Step-by-Step Approach 
Towards an Expressive Speech Synthesis System”, 
Springer, Trends and Applications in Knowledge 
Discovery and Data Mining, vol 9441, Springer, 2015, pp. 
273-287. 
[25] RAHUL B. LANEWAR, SWARUP MATHURKAR, 
NILESH PATEL, “Implementation and Comparison of 
Speech Emotion Recognition System using Gaussian 
Mixture Model (GMM) and K-Nearest Neighbor (K-NN) 
techniques”, Procedia Computer Science, vol 49, Elsevier, 
2015, pp. 50-57. 
[26] MOATAZ EL AYADI, MOHAMED S. KAMEL, 
FAKHRI KARRAY, “Survey on speech emotion 
recognition: Features, classification schemes, and 
databases”, Pattern Recognition Journal, vol 44, Issue 3, 
Elsevier, March 2011, pp 572–587. 
[27] www.praat.org, last visited 20/02/2016. 
[28] LA VUTUAN, HUANG CHENG-WEI, HA CHENG, 
ZHAO LI, “Emotional Feature Analysis and 
Recognition from Vietnamese Speech”, Journal of 
Signal Processing, China, 2013. 
[29] JIANG ZHIPENG, HUANG CHENGWEI, “High-
Order Markov Random Fields and Their Applications 
in Cross-Language Speech Recognition”, Cybernetics 
and Information Technologies, Volume 15, No 4, Sofia, 
2015, pp 50-57. 
[30] ROBERT PLUTCHIK, HENRY KELLERMAN, 
“Emotion: Theory, research and experience”, vol 4. 
Academic Press, New York, USA, 1989. 
[31] NGUYỄN TÔN NHAN, PHÚ VĂN HẲN, “Từ điển 
tiếng Việt”, Nhà xuất bản Từ điển Bách Khoa, 2013. 
Các công trình nghiên cứu, phát triển và ứng dụng CNTT-TT Tập V-1, Số 15 (35), tháng 6/2016 
-98- 
[32] JOHN C. PLATT, “Technical Report MSR-TR-98-14”, 
Microsoft Research, April 21, 1998 
[33] QUINLAN, J. R. “C4.5: Programs for Machine 
Learning”, Morgan Kaufmann Publishers, 1993. 
[34] WITTEN, IAN H., AND EIBE FRANK, “Data 
Mining: Practical machine learning tools and 
techniques”, Morgan Kaufmann Publishers, 2005. 
[35] EYBEN, FLORIAN, MARTIN WÖLLMER, AND 
BJÖRN SCHULLER, "Opensmile: the munich 
versatile and fast open-source audio feature extractor", 
Proceedings of the 18th ACM international conference 
on Multimedia, Firenze, Italia, Oct 25-29, 2010. 
[36] SIQING WUA, TIAGO H. FALKB, WAI-YIP CHAN, 
“Automatic speech emotion recognition using 
modulation spectral features”, Speech Communication, 
Volume 53, Issue 5, 2011, pp. 768–785. 
[37] S. LALITHA, ABHISHEK MADHAVAN, 
BHARATH BHUSHAN, SRINIVAS SAKETH, 
“Speech emotion recognition”, Proceedings of the 
International Conference on Advances in Electronics, 
Computers and Communications, Bangalore, India, Oct 
10-11, 2014. 
[38] MARTIN GJORESKI, HRISTIJAN GJORESKI, 
ANDREA KULAKOV, “Machine Learning Approach 
for Emotion Recognition in Speech”, Informatica, vol 
38, no 4, 2014, pp. 377-384. 
[39] ANKUSH CHAUDHARY,ASHISH KUMAR 
SHARMA, JYOTI DALAL, LEENA CHOUKIKER, 
“Speech Emotion Recognition”, Journal of Emerging 
Technologies and Innovative Research, vol. 2, issue 4, 
2015, pp 1169-1171. 
Nhận bài ngày: 26/02/2016
SƠ LƢỢC VỀ TÁC GIẢ 
LÊ XUÂN THÀNH 
Sinh năm 1982. 
Tốt nghiệp ĐH Bách khoa Hà 
Nội năm 2006. 
Hiện tại là giảng viên và nghiên 
cứu sinh tại Bộ môn Kỹ thuật 
Máy tính, Trường ĐH Bách khoa 
Hà Nội. 
Lĩnh vực nghiên cứu: Xử lý tín 
hiệu, Xử lý tiếng nói, Hệ nhúng. 
Email: thanhlx@soict.hust.edu.vn 
Điện thoại : 0906755789 
ĐÀO THỊ LỆ THỦY 
Sinh năm 1976. 
Tốt nghiệp Học viện Kỹ thuật 
Quân sự năm 2008. 
Hiện đang là nghiên cứu sinh tại 
Viện CNTT và Truyền thông, 
Trường ĐH Bách khoa Hà Nội. 
Lĩnh vực nghiên cứu: Xử lý tín 
hiệu, Xử lý tiếng nói, công nghệ 
phần mềm. 
Email: thuydt@hht.edu.vn 
TRỊNH VĂN LOAN 
Sinh năm 1956. 
Tốt nghiệp ĐH Bách khoa Hà Nội 
năm 1978. Nhận bằng DEA năm 
1988 và nhận bằng Docteur năm 
1992 tại Viện ĐH Bách khoa Quốc 
gia Grenoble (INPG) Pháp. 
Hiện công tác tại Viện CNTT và 
Truyền thông, Trường ĐH Bách khoa Hà Nội. 
Lĩnh vực nghiên cứu: Xử lý tín hiệu, Xử lý tiếng nói, 
Hệ nhúng. 
Email: loantv@soict.hust.edu.vn 
NGUYỄN HỒNG QUANG 
Sinh năm 1978. 
Tốt nghiệp ĐH Bách khoa Hà 
Nội năm 2000. 
Nhận bằng tiến sỹ tại Trường 
ĐH Avignon, CH Pháp năm 
2008. 
Hiện tại là giảng viên Viện 
CNTT và Truyền thông, Trường ĐH Bách khoa Hà 
Nội. 
Lĩnh vực nghiên cứu: Xử lý tiếng nói, Học máy thống 
kê. 
Email: quangnh@soict.hust.edu.vn 

File đính kèm:

  • pdfcam_xuc_trong_tieng_noi_va_phan_tich_thong_ke_ngu_lieu_cam_x.pdf