Show simple item record

dc.contributor.authorOtto, Mateus Piovezan
dc.date.accessioned2023-04-03T17:47:30Z
dc.date.available2023-04-03T17:47:30Z
dc.date.issued2023-03-29
dc.identifier.citationOTTO, Mateus Piovezan. Scalable and interpretable kernel methods based on random Fourier features. 2023. Dissertação (Mestrado em Estatística) – Universidade Federal de São Carlos, São Carlos, 2023. Disponível em: https://repositorio.ufscar.br/handle/ufscar/17579.*
dc.identifier.urihttps://repositorio.ufscar.br/handle/ufscar/17579
dc.description.abstractKernel methods are a class of statistical machine learning models based on positive semidefinite kernels, which serve as a measure of similarity between data features. Examples of kernel methods include kernel ridge regression, support vector machines, and smoothing splines. Despite their widespread use, kernel methods face two main challenges. Firstly, due to operating on all pairs of observations, they require a large amount of memory and calculation, making them unsuitable for use with large datasets. This issue can be solved by approximating the kernel function via random Fourier features or preconditioners. Secondly, most used kernels consider all features to be equally relevant, without considering their actual impact on the prediction. This results in decreased interpretability, as the influence of irrelevant features is not mitigated. In this work, we extend the random Fourier features framework to Automatic Relevance Determination (ARD) kernels and proposes a new kernel method that integrates the optimization of kernel parameters during training. The kernel parameters reduce the effect of irrelevant features and might be used for post-processing variable selection. The proposed method is evaluated on several datasets and compared to conventional algorithms in machine learning.eng
dc.description.sponsorshipFundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)por
dc.language.isoengpor
dc.publisherUniversidade Federal de São Carlospor
dc.rightsAttribution 3.0 Brazil*
dc.rights.urihttp://creativecommons.org/licenses/by/3.0/br/*
dc.subjectImportância de covariáveispor
dc.subjectMétodos de kernelpor
dc.subjectAprendizado de máquinapor
dc.subjectOtimizaçãopor
dc.subjectKernel methodseng
dc.subjectFeature importanceeng
dc.subjectMachine learningeng
dc.subjectOptimizationeng
dc.titleScalable and interpretable kernel methods based on random Fourier featurespor
dc.title.alternativeMétodos de kernel escaláveis e interpretáveis baseados em random Fourier featureseng
dc.typeDissertaçãopor
dc.contributor.advisor1Izbicki, Rafael
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/9991192137633896por
dc.description.resumoMétodos de kernel são uma classe de modelos de aprendizado de máquina baseados em kernels positivo semidefinidos, que servem como medidas de similaridade entre covariáveis. Exemplos de métodos de kernel incluem a regressão ridge com kernels, as máquinas de vetor de suporte e os splines suavizadores. Apesar do seu amplo uso, os métodos de kernel possuem duas desvantagens significativas. Em primeiro lugar, ao operar sobre todos os pares de observações, eles demandam grande quantidade de memória e computação, o que impossibilita sua aplicação em grandes conjuntos de dados. Este problema pode ser resolvido através de aproximações da matriz do kernel via \textit{random Fourier features} ou precondicionadores. Em segundo lugar, a maioria dos kernels tratam todas as covariáveis disponíveis como igualmente relevantes, desconsiderando seu impacto na predição. Isso resulta em um descréscimo na interpretabilidade, uma vez que a influência de covariáveis irrelevantes não é mitigada. Neste trabalho, nós estendemos a teoria de \textit{random Fourier features} para os kernels com Determinação Automática de Relevância e propomos um novo método de kernel que integra a otimização dos parâmetros do kernel ao treinamento. Os parâmetros do kernel reduzem o efeito das covariáveis irrelevantes e podem ser utilizados para seleção de variáveis pós-processamento. O método proposto é avaliado em diversos conjuntos de dados e comparado a algoritmos convencionais de aprendizado de máquina.por
dc.publisher.initialsUFSCarpor
dc.publisher.programPrograma Interinstitucional de Pós-Graduação em Estatística - PIPGEspor
dc.subject.cnpqCIENCIAS EXATAS E DA TERRA::PROBABILIDADE E ESTATISTICA::ESTATISTICA::INFERENCIA NAO-PARAMETRICApor
dc.description.sponsorshipIdProcesso nº 2021/02178-8, Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)por
dc.publisher.addressCâmpus São Carlospor
dc.contributor.authorlatteshttp://lattes.cnpq.br/8136176856567377por


Files in this item

Thumbnail
Thumbnail

This item appears in the following Collection(s)

Show simple item record

Attribution 3.0 Brazil
Except where otherwise noted, this item's license is described as Attribution 3.0 Brazil