IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> Python知识库 -> 文本数据挖掘实验:文本分类 -> 正文阅读

[Python知识库]文本数据挖掘实验:文本分类

文本数据挖掘:实现文本分类

#!/usr/bin/env python
# -*- coding: utf-8 -*-
# author: 廖文龙
# datetime: 2021/10/20 13:06 
# ide: PyCharm
# Copyright ? 2021 WellonLeo.All rights reserved.
import os

import torch
import torch.nn as nn
from partition import partition
from vectorize import vectorize
import numpy as np
os.environ["KMP_DUPLICATE_LIB_OK"]="TRUE"
#firstly implements softmax function
def softmax(x):
    if len(x.shape) > 1:
        # 矩阵
        tmp = np.max(x, axis=1)
        x -= tmp.reshape((x.shape[0], 1))
        x = np.exp(x)
        tmp = np.sum(x, axis=1)
        x /= tmp.reshape((x.shape[0], 1))
    else:
        # 向量
        tmp = np.max(x)
        x -= tmp
        x = np.exp(x)
        tmp = np.sum(x)
        x /= tmp
    return x

#--------------------------------------------------divide-------------------------------------------------
def divide(srcFilePath, trainingData, testData):
    f= open(srcFilePath, 'r')
    lines = f.readlines()
    partitioned_data=partition(instances=lines,proportion=[0.7,0.3],shuffle=True)
    f2=open(trainingData,'w')
    f3=open(testData,'w')
    for each in partitioned_data[0]:
        f2.write(each)
    for each in partitioned_data[1]:
        f3.write(each)

#--------------------------------------------------vectorize-------------------------------------------------
def vectorize_dataset(trainingData, vectorizedTrainingData, dictPath):
    vectorize(trainingData,dictPath,vectorizedTrainingData)

#--------------------------------------------------train-------------------------------------------------

def collect_data(vectorizedTrainingData,words_dict_length):
    f = open(vectorizedTrainingData, 'r')
    lines = f.readlines()

    x_all=[]
    y_all=[]
    y_all_hated=[]
    for line in lines:
        y_all.append(line.split('\t')[0])
        vec = np.zeros((1, words_dict_length))
        for i in line.split('\t')[1].strip().split(' '):
            vec[0][int(i)]=1
        x_all.append(vec)
    cats_num= len(set(y_all))
    cats_list=[i for i in set(y_all)]
    for i in y_all:
        i=cats_list.index(i)
        y_all_hated.append(i)
    print(cats_num,cats_list)
    return y_all_hated,np.array(x_all).squeeze()

def gen_training_data(y_all_hated,x_all,iteration,batch_size):
    y_iter_data=y_all_hated[iteration*batch_size:(iteration+1)*batch_size]
    x_iter_data=x_all[iteration*batch_size:(iteration+1)*batch_size]
    return y_iter_data,x_iter_data

def forward(W,X,Y,ifCalcloss,ifBackprop,LR):
    #core
    Y_pred=X.dot(W.transpose())
    #softmax
    Y_pred=softmax(Y_pred)
    #loss func
    loss=0
    if(ifCalcloss):
        for i in range(0,len(Y)):
            loss-=np.log(Y_pred[i,int(Y[i])])
        print('Loss',loss)
    #backprop
    if(ifBackprop):
        grads=np.zeros_like(W)
        for m in range(len(Y)):
            for k in range(W.shape[0]):
                #compute gradients
                for i in range(W.shape[-1]):
                    if np.argmax(Y_pred[m,:])==k:
                        zhishifunc=1
                    else:
                        zhishifunc=0
                    grads[k,i]-=(-Y_pred[m,k]*X[m,i]+zhishifunc)
        grads=grads/len(Y)
        #undate weights
        W=W-LR*grads

    return W


#--------------------------------------------------test-------------------------------------------------
#waiting to be added


#--------------------------------------------------evaluate-------------------------------------------------
#waiting to be added

dictPath='indexed_text_mining_data.txt'
trainingData='training.txt'
testData='testData.txt'
srcFilePath='text_mining_data.txt'
f=open(dictPath,'r')
lines=f.readlines()
words_dict_length=len(lines)

f2=open(trainingData,'r')
lines=f2.readlines()
cats_list=[item.split('\t')[0] for item in lines]
cats_num= len(set(cats_list))
print(cats_num,words_dict_length)
all_cats=['科教文体广新', '城市管理', '城乡住房', '交通管理', '环境保护', '国土与拆迁安置', '民政', '市场监督', '公安政法', '劳动保障']
y_all_hated,x_all=collect_data('dest.txt',22962)
W=np.random.randn(10,22962)
for i in range(500):
    Y,X=gen_training_data(y_all_hated,x_all,i,10)
    W=forward(W,X,Y,True,True,0.001)

  Python知识库 最新文章
Python中String模块
【Python】 14-CVS文件操作
python的panda库读写文件
使用Nordic的nrf52840实现蓝牙DFU过程
【Python学习记录】numpy数组用法整理
Python学习笔记
python字符串和列表
python如何从txt文件中解析出有效的数据
Python编程从入门到实践自学/3.1-3.2
python变量
上一篇文章      下一篇文章      查看所有文章
加:2021-10-24 14:53:43  更:2021-10-24 14:56:01 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/15 21:03:48-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码