阿里面试官惊叹:这种简历不用面了,直接来上班!

自我介绍:20届同学,工作经验不到两年,为追求更好的职业发展,开始看新的机会,下面是一些面试问题~

北京滴滴(offer)

二面:1.项目介绍大促期间服务总QPS,多少个服务,每个服务多少个线程服务器线程数量根据什么来配置?2.Redis集群的工作原理?gossip协议?写和读的流程?CRC16再取余这个计算在client还是服务端?可以决定哪个key放在哪个节点吗?3.Redis主从同步流程?4.Redis的hash结构怎么rehash的?如果渐进式时,这些的key突然都不访问了会有什么问题5.MySQLinnodb引擎的索引结构,B+树一般都多高?层高怎么计算?6.联合索引abcwherea=3andb>3andc=3怎么走索引?7.如果MySQL表中有一个字段很大有几K会有什么问题?8.索引下推了解吗?场景设计:如何设计一个会议室预定系统?算法:给数组arry和值x计算数组array中差值绝对值为X的数对;

三面(HRBP):1.离职原因;2.用三个词评价一下你的领导;3.未来规划;4.你有什么缺点;5.遇到过最大的问题;总结:一面整体上全是项目和场景考虑,因为他们是用go开发,我之前是用Java,所以一直在问中间件,没有Java八股文,不过中间件问的蛮深,面试体验很好;

杭州网易(offer)一面:1.讲一下JUC下的线程池,ReenTranLock线程池参数以及提交任务后怎么执行线程怎么销毁Lock的加锁和解锁过程和公平锁和非公平锁实现原理Conditional源码有没有看过2.阻塞队列源码有没有看过3.JVM调优讲一下?非常细什么命令怎么分析的面板什么样子都有问4.CMS+ParNew算法的对象分配和垃圾回收流程什么时候会出发fullgcold区什么时候触发CMSGC什么参数配置大了会怎么样配置小了会怎么样为什么会产生浮动垃圾5.MySQL的隔离级别,MVCC原理,乐观锁在什么隔离级别才能使用?6.Kafka的ISR是什么,HW呢?怎么保证可靠性,Kafka怎么实现顺序消息?为什么Kafka的broker上topic越多效率越慢?7.讲一下项目的完整流程数据模型,多个版本经常变化怎么控制的?(每个校验模块提供原子能力可以配置化,如何设计)8.分布式事务是怎么保证的,MQ的方式如果本地执行成功同时服务挂掉了这个MQ没有记录怎么办?

总结:参加的是周末专场面试,一个周末面完+出结果,整体是项目+中间件,算法每一面都是两道一个easy,一个mid,整体面试体验很不错;B站(offer)一面:1.MySQL行级锁,表级锁。意向锁加锁时机是什么?项目中有没有使用过意向锁?2.如果查询语句有没有索引,SQL调优过程?3.Spring事务注解原理,事务传播机制,使用过什么传播机制?4.RocketMq消费者重平衡会有什么问题?重复消费?消费失败?这些场景如何处理5.数据一致性怎么保证?分布式事务怎么实现?6.动态代理有哪些,什么区别,使用注意方式;

二面:1.项目主要负责什么?2.数据清洗怎么做的?3.Kafka怎么保证消息一定被消费?4.qps8W多少台机器?什么配置?总qps?线程数量?mysql版本?走的什么索引?会不会回表?5.说了自己加redis和本地缓存然后问我本地缓存的配置?6.如何保证Redis,DB数据一致性?双删策略为什么要多删除一次?7.HashMap的扩容过程?会发生什么问题?8.MyBatis的接口和mapper怎么对应执行?10.还做过什么技术优化?11分布式锁怎么实现?分布式锁怎么实现阻塞队列?12.本地锁怎么实现阻塞队列的唤醒的?13.Zookeeper怎么实现Cp?14.ZK怎么选举的怎么投票的?算法:1.多线程循环打印ABC;2反转链表因为是现场面试,纸上手写,所以给了两道题目难度都还好

三面:1.你们部门的服务架构讲一下?2.接口优化怎么做?3.什么场景下,都用过哪些并发?你用多线程的时候Synchrionzed和ReentranLock怎么选择的?选择原则是什么?4.压测和故障演练做过吗?你都扮演什么角色?有什么收获?5.用的什么rpc和注册中心?有什么优缺点?6.未来三五年规划?期望薪资?

总结:因为是使用Java的,所以Spring问的比较多,一面比较贴合实际,都是面试官开发中常见的问题;二面对项目整体做个梳理和一些中间件知识;三面从架构和优化,压测等角度去问看看广度和高度吧主要;

本人一直有复盘的习惯,所以面试完就将这些问题及详解答案整理成文档

携程(offer)一面:1.讲一下ArrayList和HashMap底层数据结构,优缺点,使用方式;2.CuurentHashMap有用过吗?3.CAS设计思路和原理?4.ThreadLocal底层原理?5.什么场景使用的ThreadLocal?6.什么场景使用了多并发?7.用到了Javajdk8的哪些新特性?8.Lambda怎么用的,Stream的实现原理?9.除了刚刚的场景还有什么场景使用过异步任务,并发任务计算结果后做聚合怎么做?10.网络编程用过吗?IO讲一下11.你开发中都用到了什么设计模式?12.工厂模式的设计理念是什么?有什么好处?体现了什么编程思想?13.适配器模式了解吗?策略和适配器模式有什么区别,你为什么选择用策略模式而不是适配器原因是什么?14.设计模式都有什么开发原则?15.JVM调优经验说一下做了什么?16.JVM知识你讲一下?17.Spring事务注解Transaction实现原理?18.A方法调用B方法,如果B方法开启事务则直接用B方法的事务,如果是你你怎么设计怎么做?19.InnoDb的默认隔离级别,可重复读,解决了什么问题没有解决什么问题?20.什么场景下使用了ES?21.倒排索引是什么讲一下?22.为什么ES检索比较快?23.你使用MQ(RocketMq和Kafka)的应用场景什么?

三面:1.负责的·项目业务流程和服务架构都说一下?(20min)2.bigdecimal使用需要注意什么,还有什么其他编程时需要注意的规范?3.MySQL库表上线之前需要做什么工作?4.索引为什么是B+树结构,MySQL都有哪些引擎,有什么区别?5.MySQL深度分页怎么解决?6.ThreadLocal原理?使用需要注意什么?7.如果做海外的业务,使用数据库需要注意什么地方?时区8.有没有做过海外业务?多语言,多币种有没有什么解决方案?总结:感觉携程的面试比较中规中矩,基本上所有知识面都有考察到,也比较符合实际,项目,基础知识,场景设计,算法,代码规范都有,但是相应更看重项目和基础知识和代码规范,面试体验很好;阿里(曲折的面试经历)阿里一共面了三个部门:淘宝,饿了吗,供应链年前面淘宝两面,到三面没有hc了,搁浅;饿了吗有同学联系,面完两面,结合自己情况不再考虑这个机会;年后又面了供应链,后来有offer,没有继续走流程;

淘宝一面:1.先聊了20分钟项目问难点如何解决2.HashMap在使用时需要注意什么地方至少说出四点;3.你的多并发控制是怎么使用的,都有哪些多并发控制手段4.线上有死循环代码你怎么排查定位到5.MySQL的事务实现原理和隔离级别6.对于索引,你觉得在开发中需要注意什么?7.分布式锁的实现和底层原理以及都有什么问题?NIO和AIO的区别8.Kafka的架构和工作原理?9.Kafka为什么这么快,顺序写是这么实现的?10.你觉得你做的业务的价值是什么解决了什么问题?11.你觉得你做的对业务最有价值的一件事情是什么?笔试:1.找出代码的bug一段多线程代码找出三个bug2.给你MemcachedClinet实现一个消息队列

THE END
1.数据清洗的重要性与技巧:提升大数据分析的准确性和效率提升模型性能:在机器学习和数据分析领域,模型的性能在很大程度上依赖于输入数据的质量。数据清洗包括特征选择和特征工程,这些步骤可以帮助模型更好地识别数据中的模式,从而提高模型的预测能力。 节省时间和资源:在数据分析的早期阶段进行数据清洗可以避免在后续阶段进行昂贵的修正。自动化数据清洗流程可以进一步节省时间和资https://blog.csdn.net/Shaidou_Data/article/details/144110971
2.数据清洗总结数据清洗总结 转发数据清洗 数据清洗流程 1 缺失值清洗 1.1 确定缺失值范围 对每个字段都计算其缺失值比例,然后按照缺失比例和字段重要性,分别制定策略,可用下图表示: image.png 1.2 去除不需要的字段 直接删掉,但是务必做好每一步的备份 1.3 填充缺失值(重要,复杂)https://www.jianshu.com/p/4eb95d04a62f
3.总结了pandas实现数据清洗的7种方式以下文章来源于python数据分析之禅,作者小dull鸟 python数据分析之禅. 点击领取pandas高清速查表,后台回复“速查表”获取 最近在做“对比excel,学习pandas系列”,前面发了一篇 很受读者喜爱,今天给大家介绍一下excel和pandas实现数据清洗的种方式 1.处理数据中的空值 https://mp.weixin.qq.com/s?__biz=MjM5NjIwOTQyMA==&mid=2651838178&idx=1&sn=ddda4f225aa4bbd9c38bda50cefc2eb6&chksm=bd17c0818a6049975b3ace3661850a7a73a8f5fdc7d6daafd1653eaaa8181acd071bfa2c3a0e&scene=27
4.感悟与反思┃“数据清洗工作”的总结与反思——席义博虽然数据清洗过程中报错不断,但大家的热情不减,那段时间每天晚上和大家一起处理数据,听大家反馈的问题,然后一起讨论解决,是我每天最期待的事儿,也是我度过最开心的时光,在实践与交流中,我相信大家一定都有各自的收获! 这次数据清洗的任务,其实带动了很大一批同学对于编程的兴趣与冲动,这是个很好的开端,是凝聚大家庭http://www.sxmu.edu.cn/bdcd/info/1097/1393.htm
5.大语言模型系列—预训练数据集及其清洗框架梳理中英文训练数据集。 整理文本清洗框架。 总结现有框架的优点、问题和初步解决方案。 二、预训练数据集 大规模的高质量语料是训练大语言模型的关键“养料”。这些语料提供了世界性的知识体系,能够提升语言模型的理解能力和生成质量,同时也能够支持多样化的应用场景。事实上,高质量的文本对于大语言模型的训练和能力表现https://www.51cto.com/article/778437.html
6.数据清洗随笔分类星涅爱别离数据清洗 随笔分类 -数据清洗 总结与梳理(含之前所涉及的代码和数据) 摘要:一些特别弄混的事: 总体的总结: 数据处理的步骤: 常用的函数 注意点阅读全文 posted @2020-02-06 21:36星涅爱别离阅读(143)评论(0)推荐(0)编辑 数据清洗之数据预处理 重复值 缺失值 异常值 数据离散化https://www.cnblogs.com/xingnie/category/1641806.html
7.玩转逻辑回归之金融评分卡模型消费金融风控联盟总结一下特征分箱的优势: 特征分箱可以有效处理特征中的缺失值和异常值。 特征分箱后,数据和模型会更稳定。 特征分箱可以简化逻辑回归模型,降低模型过拟合的风险,提高模型的泛化能力。 将所有特征统一变换为类别型变量。 分箱后变量才可以使用标准的评分卡格式,即对不同的分段进行评分。 https://www.shangyexinzhi.com/article/5177142.html
8.如何进行数据预处理和清洗?总结 数据预处理和清洗是机器学习和数据分析中非常重要的步骤。通过识别和纠正缺失值、异常值、重复值和错误数据等问题,可以提高数据质量并减 少后续分析的误差和偏差。数据预处理和清洗的流程包括数据收集和选择、数据清洗、数据转换、数据集成和数据规约。在进行数据预处理和清洗时,需要根据实际情况采取不同的处理方法https://www.cda.cn/bigdata/202680.html