dc.contributor.author | Otto, Mateus Piovezan | |
dc.date.accessioned | 2023-04-03T17:47:30Z | |
dc.date.available | 2023-04-03T17:47:30Z | |
dc.date.issued | 2023-03-29 | |
dc.identifier.citation | OTTO, Mateus Piovezan. Scalable and interpretable kernel methods based on random Fourier features. 2023. Dissertação (Mestrado em Estatística) – Universidade Federal de São Carlos, São Carlos, 2023. Disponível em: https://repositorio.ufscar.br/handle/ufscar/17579. | * |
dc.identifier.uri | https://repositorio.ufscar.br/handle/ufscar/17579 | |
dc.description.abstract | Kernel methods are a class of statistical machine learning models based on positive semidefinite kernels, which serve as a measure of similarity between data features. Examples of kernel methods include kernel ridge regression, support vector machines, and smoothing splines. Despite their widespread use, kernel methods face two main challenges. Firstly, due to operating on all pairs of observations, they require a large amount of memory and calculation, making them unsuitable for use with large datasets. This issue can be solved by approximating the kernel function via random Fourier features or preconditioners. Secondly, most used kernels consider all features to be equally relevant, without considering their actual impact on the prediction. This results in decreased interpretability, as the influence of irrelevant features is not mitigated. In this work, we extend the random Fourier features framework to Automatic Relevance Determination (ARD) kernels and proposes a new kernel method that integrates the optimization of kernel parameters during training. The kernel parameters reduce the effect of irrelevant features and might be used for post-processing variable selection. The proposed method is evaluated on several datasets and compared to conventional algorithms in machine learning. | eng |
dc.description.sponsorship | Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) | por |
dc.language.iso | eng | por |
dc.publisher | Universidade Federal de São Carlos | por |
dc.rights | Attribution 3.0 Brazil | * |
dc.rights.uri | http://creativecommons.org/licenses/by/3.0/br/ | * |
dc.subject | Importância de covariáveis | por |
dc.subject | Métodos de kernel | por |
dc.subject | Aprendizado de máquina | por |
dc.subject | Otimização | por |
dc.subject | Kernel methods | eng |
dc.subject | Feature importance | eng |
dc.subject | Machine learning | eng |
dc.subject | Optimization | eng |
dc.title | Scalable and interpretable kernel methods based on random Fourier features | por |
dc.title.alternative | Métodos de kernel escaláveis e interpretáveis baseados em random Fourier features | eng |
dc.type | Dissertação | por |
dc.contributor.advisor1 | Izbicki, Rafael | |
dc.contributor.advisor1Lattes | http://lattes.cnpq.br/9991192137633896 | por |
dc.description.resumo | Métodos de kernel são uma classe de modelos de aprendizado de máquina baseados em kernels positivo semidefinidos, que servem como medidas de similaridade entre covariáveis. Exemplos de métodos de kernel incluem a regressão ridge com kernels, as máquinas de vetor de suporte e os splines suavizadores. Apesar do seu amplo uso, os métodos de kernel possuem duas desvantagens significativas. Em primeiro lugar, ao operar sobre todos os pares de observações, eles demandam grande quantidade de memória e computação, o que impossibilita sua aplicação em grandes conjuntos de dados. Este problema pode ser resolvido através de aproximações da matriz do kernel via \textit{random Fourier features} ou precondicionadores. Em segundo lugar, a maioria dos kernels tratam todas as covariáveis disponíveis como igualmente relevantes, desconsiderando seu impacto na predição. Isso resulta em um descréscimo na interpretabilidade, uma vez que a influência de covariáveis irrelevantes não é mitigada. Neste trabalho, nós estendemos a teoria de \textit{random Fourier features} para os kernels com Determinação Automática de Relevância e propomos um novo método de kernel que integra a otimização dos parâmetros do kernel ao treinamento. Os parâmetros do kernel reduzem o efeito das covariáveis irrelevantes e podem ser utilizados para seleção de variáveis pós-processamento. O método proposto é avaliado em diversos conjuntos de dados e comparado a algoritmos convencionais de aprendizado de máquina. | por |
dc.publisher.initials | UFSCar | por |
dc.publisher.program | Programa Interinstitucional de Pós-Graduação em Estatística - PIPGEs | por |
dc.subject.cnpq | CIENCIAS EXATAS E DA TERRA::PROBABILIDADE E ESTATISTICA::ESTATISTICA::INFERENCIA NAO-PARAMETRICA | por |
dc.description.sponsorshipId | Processo nº 2021/02178-8, Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) | por |
dc.publisher.address | Câmpus São Carlos | por |
dc.contributor.authorlattes | http://lattes.cnpq.br/8136176856567377 | por |