如何获得Android屏幕触摸的 x,y 坐标?
在我的应用程序运行时,每当有人触摸屏幕时,是否有一种简单的方法来获取 x,y 坐标?
getX()和getY()函数返回的确切内容是什么?是否返回像素值?当手指触摸屏幕位置时,它可能会触摸许多像素.那么函数究竟返回了什么?
再次,让我们假设在我用手指触摸的区域中,屏幕上有多个像素,如下所示:
假设我需要单击并拖动像素1处的点,但是我的手指触摸的区域覆盖像素1和2.如何准确检测哪个像素被点击,以便我可以单击并拖动像素1或2需要它?
我想这些值是blob或触摸区域的中心.请记住,它可以是像鼠标或手写笔一样的工具,因此该区域将更加精确.它具有触摸手指的假定区域的方法和常量.
解决方案参考:
标签:
笔记
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· AI 智能体引爆开源社区「GitHub 热点速览」
· 三行代码完成国际化适配,妙~啊~
· .NET Core 中如何实现缓存的预热?